"북한이 서울을 기습 공격할 경우, 인간보다 대응 속도가 빠른 AI에 의존해야 할까?"

미국 싱크탱크 브루킹스 연구소가 'AI 시대의 지정학적 변화'를 주제로 연 대담에서 나온 이 질문이 화제입니다.

진행자는 북한이 서울을 향해 항공기 100대를 출격시키고 한국이 AI를 활용해 항공기를 격추시켜 북한 조종사가 목숨을 잃는 상황을 가정했을 때, AI가 사람을 죽이는 결정을 해도 되는지 물었습니다.

샘 울트먼 오픈AI 최고경영자는 "복잡하고 쉽지 않은 문제"라고 답했습니다.

공격이 일어나고 있다고 정말 확신할 수 있는지, 어느 정도로 확실해야 하는지, 예상되는 인명피해는 어느 정도인지, 따져봐야 할 것이 많다는 겁니다.

이어 "'AI가 핵무기 발사를 결정할 수 있어야 한다'고 주장하는 걸 들은 적이 없다, 그렇다고 '미사일을 요격할 때처럼 빠르게 행동해야 하는 상황에서 AI를 사용해선 안된다'는 주장도 들은 적이 없다"면서, "오픈AI에서 이런 결정을 하지 않아도 되길 바란다"고 덧붙였습니다.

샘 울트먼은 지정학적 경쟁이 AI 산업에 미치는 영향에 대한 질문을 받고서는 "우리는 매우 분명히 미국과 우리 동맹의 편"이라고 답했습니다.

특히 "이 기술이 인류 전체에 득이 되길 원하지, 우리가 동의하지 않는 지도부가 있는 특정 국가에 살게 된 사람들에게만 득이 되는 걸 원치 않는다"고 강조했습니다.

(취재 정경윤 / 영상편집 이승희 / 제작 디지털뉴스편집부)