한국의 카이스트가 왕따 당한 속사정은.

1. 지난 2016년 구글 딥마인드가 개발한 알파고가 이세돌 9단과의 바둑 대결에서 승리하면서 인공지능(AI)에 대한 관심이 높아졌습니다.

2. 인공지능(Artificial Intelligence)은 인간의 학습능력과 추론능력, 지각능력, 자연언어의 이해능력 등을 컴퓨터 프로그램으로 실현한 것으로, 지금까지는 주로 터미네이터, 아이언맨 같은 영화를 통해서나 접할 수 있었던 개념이었죠.

3. 하지만 최근 AI기술이 빠르게 발전하면서 우리 생활에도 많은 영향을 주는데요, 이런 와중에 세계 최고의 로봇학자들이 한국의 카이스트(KAIST)가 연구하는 인공지능(AI) 무기가 미칠 부작용에 대해 우려하면서 공동 연구를 전면 보이콧하겠다고 밝혀 논란이 일고 있습니다.

4. 이유는 이렇습니다. 카이스트는 한화시스템과 공동으로 지난 2월 국방인공지능융합연구센터를 열고, 자율주행 자동차, 드론 등 신산업 육성을 시작했는데, 세계의 로봇학자들은 이곳에서 인공지능이 탑재돼 스스로 가동되는 킬러 로봇이 개발될 수 있다고 우려하고 있는 것입니다.

5. 킬러로봇은 고도의 AI와 첨단 통신 기술로 무장해 사람의 조작이나 명령 없이도 적과 전투할 수 있는 로봇을 의미합니다. 영화 터미네이터에서 주인공인 사라코너를 죽이기 위해 미래에서 온 로봇을 생각하면 이해가 될 것입니다.

6. 만약 킬러로봇이 실제로 개발되고, 이 로봇들이 인간의 통제를 벗어난다면 세계는 엄청난 혼란과 위험에 처할 것입니다. 일론 머스크 테슬라 CEO 등 26개국 정보기술(IT) 전문가 116명이 킬러로봇의 사용과 개발 금지를 요구하는 성명을 UN에 제출한 것도 이런 이유에서죠.

7. 이에 카이스트는 즉각 “인권과 윤리적 기준을 매우 중요하게 생각하고 있다. 대량살상무기, 공격무기 등 인간 윤리에 위배되는 연구를 하지 않겠다”는 해명자료를 내고, 이를 보이콧에 참여한 교수들에게 발송하는 등 진화에 나섰습니다.

8. AI 기술의 오·남용은 미래 인류에게 치명적인 위험이 될 수 있습니다. 요리사가 잡느냐, 도둑이 잡느냐에 따라 칼의 용도가 달라지듯이 AI기술도 연구자들의 윤리적 판단에 따라 음식을 만드는 칼이 될 수도, 사람을 위협하는 흉기가 될 수도 있다는 사실을 명심해야 합니다.

저작권자 © 전기신문 무단전재 및 재배포 금지