기술만으로 AI G3 가능한가… ‘안전’ 함께 챙겨야 [줌인IT]
||2026.02.25
||2026.02.25
정부를 포함해 우리는 모두 인공지능(AI) 기술과 관련해 "더 빠른 모델, 더 많은 투자, 더 높은 벤치마크 순위"에 집착하는 모습이다. 그러나 정작 "우리가 만드는 AI를 믿어도 되는가"라는 질문 앞에서는 자신있는 대답이 좀처럼 들리지 않는다.
AI는 기존 소프트웨어와 근본적으로 다르다. 코드 한 줄의 오류는 수정으로 해결되지만, AI의 결함은 수조 개의 파라미터 속에 거미줄처럼 퍼져 있어 문제가 되는 부분만 들어내는 것이 사실상 불가능하다. 모델 전체를 폐기하고 처음부터 다시 개발해야 할 수도 있다. 신뢰성은 출시 후에 챙기는 사후 과제가 아니라, 개발 첫날부터 설계에 녹여야 할 전제 조건인 이유다.
글로벌 규제 흐름도 같은 방향을 가리킨다. EU AI법은 지난해 발효돼 고위험 AI에 투명성 보고서와 편향성 감사를 의무화했다. 중국은 한발 더 나아갔다. 지난해 12월 중국 국가인터넷정보판공실(CAC)은 AI 챗봇이 사용자의 극단적 선택을 유도하거나 정서를 조작하는 것을 원천 차단하는 규제안을 공개했다. 사용자가 극단적 선택을 언급할 경우 즉각 실제 상담원이 개입하도록 하고, 미성년자에게는 보호자 동의와 이용 시간 제한을 적용하는 내용이다. 윈스턴 마 뉴욕대학교 교수는 이를 두고 "콘텐츠 안전에서 정서적 안전으로의 도약"이라고 평가했다. AI 안전 규제가 단순한 오류 방지를 넘어 인간의 심리 영역으로까지 확장되고 있다는 신호다.
AI 신뢰성 전문기업 씽크포비엘 박지환 대표는 100점 만점 기준으로 유럽 30점, 미국 25점, 한국은 3점 수준이라고 평가했다. 태국이 유네스코와 협력해 아시아 AI 윤리 실무 센터를 구축하고 2028년까지 전문가 1만명 육성 로드맵을 실행 중인 것과 대비된다. 박 대표는 "우리나라는 AI 신뢰성을 가르치는 학교가 단 한 곳도 없으며, 이는 2년 후까지도 마찬가지"라는 진단을 내렸다.
제도 설계 방향도 문제로 꼽힌다. 유럽은 AI 신뢰성 관련 법을 국제 표준에 기반해 만들고 실무 강령까지 구체화했다. 반면 한국의 AI 기본법은 윤리적 선언에 그쳐 엔지니어링 내용이 빠져 있다. 기업들이 어떻게 지켜야 하는지를 모르는 상태라는 것이다. 미국은 신뢰성 인력을 채용하는 기업에 인센티브를 주는 구조가 생겨나고 있지만 한국은 'AI 신뢰성'과 측면에서는 아무 대비가 없어 보인다.
EU는 기술을 규제하고, 중국은 감정까지 규제한다. 세계는 이미 AI 안전의 기준을 빠르게 높이고 있다. 지금 한국에 필요한 것은 우리가 만든 AI를 스스로 검증하고, 세계 무대에서 그 신뢰성을 증명할 수 있는 인력과 시스템이다. 기술과 안전, 두 바퀴가 함께 굴러갈 때 비로소 G3라는 목표에 가까워 질 수 있을 것이다.
홍주연 기자
jyhong@chosunbiz.com
고객님만을 위한 맞춤 차량
