오픈AI 이어 구글도 LLM 성능 개선 둔화 딜레마 직면...전략 수정
||2024.11.14
||2024.11.14
[디지털투데이 황치규 기자]오픈AI에 이어 구글도 지난해와 같은 속도로 거대 언어 모델(LLM) 제미나이 성능을 끌어올리지 못하면서 이를 메우기 위해 다른 방법들에 초점을 맞추고 있다는 보도가 나왔다.
오픈AI와 구글 모두 AI 진화 속도가 둔화되고 있는 상황에서 우회로 확보 차원에서 새로운 접근들을 모색하고 있다는 얘기다.
13일(현지시간) 디인포메이션 보도에 따르면 구글은 제미나이와 관련해 일부 리더들이 대규모 컴퓨팅 파워와 학습 데이터를 투입하며 기대했던 성능 향상을 달성하지 못하고 있는 상황이다.제미나이 이전 버전은 구글 연구원들이 학습에 보다 많은 데이터와 컴퓨팅 파워를 사용했을 때 빠른 속도로 개선됐다고 디인포메이션은 전했다.
관련 업계에 따르면 구글 제미나이는 개발자와 고객수 규모에서 오픈AI에 많이 밀리는 상황이다.
이런 가운데 구글은 컴퓨팅 자원 측면에서 우위가 품질에서 오픈AI LLM을 뛰어넘는데 도움이 될 것으로 기대해왔지만 현실은 만만치 않아 보인다.
오픈AI와 구글이 직면한 상황은 학습할 데이터가 많아지고 학습 과정을 촉진할 컴퓨팅 성능이 추가되는 한 LLM이 동일한 속도로 계속 개선될 것이라는 AI 분야 핵심 가정, 즉 확장의 법칙(scaling laws)이 시험대에 올랐음을 보여주는 사례라고디인포메이션은 전했다.
오픈AI는 LLM 성능 개선을 위해 추론 모델 같은 새로운 기술들을 개발했다. 오픈AI가 선보인 추론 모델 o1은 기본 모델을 변경하지 않고도 모델이 사용자 질문에 답변하는 동안 추가 컴퓨팅 리소스를 제공하면 응답 품질이 계속 향상될 수 있다는데 초점이 맞춰져 있다.
구글도 비슷한 방향을 향하는 듯 보인다. 구글 AI 조직인 딥마인드는 최근 제미나이 부문 내에 o1과 유사한 역량을 개발하는 것을 목표로 새로운 팀을 꾸렸다고 디인포메이션은 전했다. 딥마인드에서 제미나이를 개발하는 연구원들은 모델을 수동으로 개선하는(manual improvements ) 것에도 초점을 맞추고 있다고 디인포메이션은 덧붙였다.