상단으로 이동하기

구글, AI 기술 7대 원칙 발표. 무기에 사용하지 않겠다Posted Jun 8, 2018 7:08:09 PM

황승환

공부해서 남 주는 사람이 되자! 가열차게 공부 중입니다.
dv@xenix.net

구글이 인공지능 기술의 향후 사용을 위한 핵심을 담은 7대 원칙을 공식 블로그를 통해 7일(현지시각) 발표했다. 인공지능 기술의 비약적인 발전은 가까운 미래에 사회에 커다란 영향을 미치게 될 것이고 인공지능 기술의 선두 주자로 앞으로 가야 할 방향을 제시하는 7대 원칙을 발표한다고 설명했다.

구글의 이번 발표는 미국방부에 인공지능 기술을 지원하는 계약을 체결한 것에 대해 지난 4월 4,000명 이상의 직원이 반대 탄원서에 서명한 것으로 시작됐다. 지난해 5월 미 국방부는 기계 학습 인공지능 기술을 이용해 방대한 영상 자료를 분석하고 무인 항공기의 타깃 식별력을 향상시키기 위한 ‘프로젝트 메이븐(Project Maven)’을 발표했다. 여기에 구글이 오픈 소스 기계학습 인공지능 알고리즘 텐서플로우(TensorFlow)를 지원하는 계약을 체결하면서 직원들의 반발이 생겼다. 당시 구글은 ‘비 공격적(non-offensive)’ 부문에만 관여하고 있다고 해명했지만 내외부의 비난은 거세졌고 결국 5월 말 국방부와 계약을 파기했다.

참고 링크 : ‘구글은 펜타곤 AI 프로젝트 지원 중단하라’ 직원들 CEO에게 탄원서 

구글이 제시한 7대 원칙은 아래와 같다.

1. 사회적으로 유익해야 한다.

2. 불공정한 편견을 만들거나 심화시키지 않아야 한다.

3. 안전이 우선 되어야 한다.

4. 인간의 지시와 통제를 받아야 한다.

5. 강력한 개인 정보 보호와 데이터 사용에 대한 투명성이 보장되어야 한다.

6. 높은 수준의 과학적 우수성과 기술의 공유.

7. 잠재적 위험을 막기 위해 원칙에 부합하는 용도로 사용되어야 한다.


이와 함께 인공지능 기술이 사용되지 않아야 할 부문도 덧붙였다.

1. 전반적인 피해를 끼치거나 그럴 가능성이 있는 기술.

2. 인명 피해를 야기하거나 직접적 피해를 입히는 것이 주요 목적인 무기 또는 관련 기술

3. 국제적으로 인정된 규범을 위반하는 감시 기술

4. 국제법과 기본 인권에 위배되는 기술

인명 살상이나 파괴를 위한 무기에는 인공지능 기술을 사용하지 않겠다는 것을 분명히 했지만 정부, 군대와 협력에서 완전히 손을 떼는 것은 아니라고 덧붙였다. 사이버 보안, 훈련, 군 모병, 재향 군인 건강 관리, 수색, 구조 등의 비 살상 분야에 대한 협력은 지속될 것이라고 밝혔다.

7대 원칙이나 무기, 감시, 파괴 목적의 기술에는 사용하지 않겠다는 내용은 모두 바람직해 보인다. 하지만 정부, 군대와 협력은 계속하겠다며 약간의 가능성을 열어 둔 것에 대한 우려도 있다. 경계가 모호한 지점이 발생한다면 구글은 어떤 선택을 할 것인가 지켜봐야 할 것이다. 


참고링크

이 기사를 읽은 분들은 이런 기사도 좋아했습니다.