"인간 뛰어넘는 초지능 AI 금지해야"…美 물리학자 인류의 위협 경고
||2026.03.25
||2026.03.25
[디지털투데이 AI리포터] 닐 디그래스 타이슨(Neil deGrasse Tyson) 미국의 천체물리학자가 인간을 능가하는 인공지능(AI) 초지능 개발을 전 세계적으로 금지해야 한다고 주장했다.
24일(현지시간) IT매체 테크레이더에 따르면, 타이슨은 한 강연에서 "초지능 AI(ASI)는 치명적일 수 있으며, 누구도 이를 개발해서는 안 된다"라고 경고했다. 그의 발언은 현재 활용되는 챗봇이나 이미지 생성 기술이 아닌, 인간 지능을 뛰어넘는 가상의 초지능 AI 겨냥한 것이다.
ASI는 인간의 인지 능력을 전면적으로 능가하고, 스스로 학습과 의사결정을 확장할 수 있는 단계의 기술을 의미한다. 타이슨은 이러한 기술이 통제를 벗어날 경우 창조자를 위협할 수 있는 존재로 변할 가능성을 우려했다.
현재 대다수 이용자는 이메일 작성, 사진 정리, 교통 정보 탐색 등 제한된 범위에서 AI를 활용하고 있다. 그러나 타이슨의 발언은 AI 발전의 한계를 어디까지 허용할 것인지에 대한 근본적인 논쟁을 다시 촉발시키고 있다.
AI 초지능 금지론은 새로운 주장이 아니다. 일부 연구자와 공공 인사들은 이를 ‘지능 폭발’ 가능성과 연결 지으며, 인간의 통제를 벗어날 위험을 경고해 왔다. 반면 이러한 우려가 과도해 기술 발전을 저해할 수 있다는 반론도 공존한다.
타이슨은 해결책으로 국제적 협력을 강조했다. 그는 "각국이 조약을 통해 공동으로 금지에 합의해야 한다"라며 "완벽하지 않더라도 조약은 인류가 선택할 수 있는 최선의 대응 수단"이라고 밝혔다.
실제로 핵무기와 화학무기, 오존층 파괴 물질 등은 국제 협약을 통해 규제돼 왔다. 다만 AI는 소프트웨어 기반 기술로 국경을 넘어 빠르게 확산될 수 있다는 점에서 기존 규제 방식과는 다른 접근이 필요하다는 지적도 나온다.
AI가 이미 일상에 깊숙이 자리 잡은 상황에서, 초지능 단계까지 규제해야 한다는 주장은 더욱 복잡한 논쟁을 낳고 있다. 기술 발전 초기 단계에서 규제를 강화할 경우 혁신을 저해할 수 있지만, 대응이 늦어질 경우 통제가 어려워질 수 있기 때문이다.
타이슨은 이러한 위험을 "운에 맡길 수 없다"라고 강조했지만, 실제로 국제적 합의에 도달하기까지는 상당한 시간이 걸릴 것으로 보인다.
고객님만을 위한 맞춤 차량
