구글 딥마인드, AGI 안전 개발 로드맵 공개…4가지 위험 분석
||2025.04.04
||2025.04.04
[디지털투데이 AI리포터] 구글 딥마인드가 인공일반지능(AGI)의 안전한 개발을 위한 종합 전략 보고서를 발표했다.
3일(현지시간) IT매체 아스테크니카에 따르면 구글 딥마인드는 보고서에서 AGI의 위험 요소를 오남용, 목표 오정렬, 사고, 구조적 위험 등 네 가지로 제시했다.
오용은 악의적인 사용자가 AGI를 이용해 보안 취약점을 악용하거나 바이러스를 설계할 가능성이 있다는 우려다. 구글은 AGI 개발 기업이 철저한 테스트와 안전 프로토콜을 마련해야 한다고 강조했다.
이어 목표 오정렬 문제는 AGI가 개발자의 통제를 벗어날 수 있다는 위험이다. 구글에 따르면 이를 방지하기 위해서는 AI가 서로의 출력을 검토하는 감시 시스템과 강력한 모니터링이 필요하다. 또한 AGI를 가상 환경에 격리하고, 즉각적인 차단 장치를 마련하는 것도 방법이다.
사고는 AI가 의도치 않게 피해를 줄 수 있으며, 군사적 활용 시 더욱 심각한 결과를 초래할 수 있다는 걱정이다. 이에 구글은 AGI의 권한을 제한하고, 명령이 실행되기 전에 안전성을 검증하는 시스템을 도입해야 한다고 제안했다.
마지막으로 구조적 위험은 AGI가 사회·경제 시스템을 재편하거나, 신뢰할 수 없는 정보를 생성해 혼란을 초래할 수 있다는 주정이다. 구글에 따르면 AGI는 경제·정치적 통제력을 점점 확대하는 시나리오도 경고하고 있으며, 이는 인간이 AGI를 어떻게 활용할지에 따라 달라질 문제다.
구글은 AGI를 대다수 인지 작업에서 인간을 능가하거나 동등한 시스템으로 정의하며, 현재의 머신러닝 기술이 AGI 개발의 주된 경로가 될 것으로 전망했다.
매체에 따르면 이번 구글 딥마인드의 보고서는 AGI 시대를 대비하는 중요한 출발점이 될 전망이다. 그러나 AGI가 인간과 유사한 지능을 갖출 가능성에 대한 논쟁은 여전히 진행 중이다. 기술이 발전할수록 AGI의 안전성과 윤리에 대한 논의는 더욱 치열해질 것으로 보인다.
고객님만을 위한 맞춤 차량