메타, 고위험 AI 시스템 개발 중단 가능성 언급
||2025.02.04
||2025.02.04
[디지털투데이 AI리포터] 3일(현지시간) IT매체 테크크런치에 따르면 메타는 '프론티어 AI 프레임워크'(Frontier AI Framework)라는 정책 문서를 통해 내부적으로 개발한 AI 시스템을 출시하지 못할 수 있는 특정 시나리오가 있다고 밝혔다.
메타는 AI 시스템을 '고위험'과 '치명적 위험'의 2가지로 분류했다. 치명적 위험 시스템은 제안된 배포 환경에서 완화할 수 없는 치명적 결과를 초래할 수 있다. 반면 고위험 시스템은 치명적 위험 시스템만큼 신뢰성 있게 수행되지 않을 수 있다고 한다.
메타가 시스템을 고위험으로 결정하면 회사는 시스템에 대한 접근을 내부적으로 제한하고 위험을 중간 수준으로 줄이기 위한 완화 조치를 구현할 때까지 공개하지 않을 것이라고 한다. 반면에 시스템이 치명적 위험으로 판단되면 메타는 시스템이 유출되는 것을 방지하기 위한 보안 보호 조치를 취하고 시스템을 덜 위험하게 만들 때까지 개발을 중단할 것이라고 한다.
한편, 메타의 프론티어 AI 프레임워크는 회사가 시스템 개발에 대한 '개방형' 접근법에 대한 비판에 대한 대응으로 보인다고 매체는 전했다.