천재적인 코딩, 멍청한 글쓰기? AI 문장력이 나빠지는 이유
||2026.03.23
||2026.03.23
[디지털투데이 AI리포터] 인공지능(AI)이 복잡한 계산과 과학적 난제 해결 분야에서 비약적인 발전을 거듭하고 있음에도 불구하고, 인간 고유의 영역인 창의적 글쓰기 능력은 기술 도입 초기 단계에 머물며 정체되어 있다는 전문가들의 분석이 나왔다.
23일(현지시간) 온라인 매체 기가진은 주요 AI 연구소와 대학 전문가들을 인용해, 거대언어모델(LLM)의 설계 사상과 학습 프로세스 자체가 창의성 발현을 근본적으로 가로막고 있다고 보도했다.
샘 알트먼 오픈AI 최고경영자(CEO) 역시 차세대 모델인 GPT-6나 GPT-7조차 시인의 평범한 작품 수준을 넘어서기 어려울 것이라고 예측하며 AI의 문학적 한계가 당분간 지속될 것임을 시사했다.
전문가들은 이러한 퇴보의 원인으로 LLM의 핵심 구동 방식인 다음 토큰 예측 기술을 지목했다. 학습 과정에서 데이터의 질보다 양을 중시하다 보니 인터넷상의 저급한 문장들까지 무분별하게 습득하게 되었고, 이것이 결국 문장력 하락으로 이어졌다는 지적이다.
특히 포스트 트레이닝 과정에서 적용되는 강력한 안전 필터와 윤리적 제약은 창의성을 더욱 억제하는 요소로 꼽힌다. 오정보 방지를 위한 엄격한 기준이 더해질수록 출력물은 점점 더 무난하고 균질화되어, 인간 작가 특유의 파격이나 개성을 상실하게 된다는 분석이다.
글쓰기의 품질을 측정하는 정량적 평가 기준의 모순도 창의적 진화를 가로막는 장애물로 드러났다. 전직 AI 문장 평가자들은 감탄사 사용 횟수와 같은 단순한 규칙에 얽매이다 보니, 전체적인 예술성보다는 규정 준수 여부로 글을 평가하게 되는 기계적 오류가 반복되고 있다고 밝혔다. 이는 문학적 가치를 숫자로 환산하려는 시도가 AI의 언어 감각을 오히려 퇴화시키고 있음을 보여준다.
고객님만을 위한 맞춤 차량
