▲ 이전 버전의 모델에서 생성된 데이터로 훈련받은 인공지능 모델이 점점 더 왜곡된 이미지를 만들어낸다.(사진=네이처, 아카이브(arXiv)) 인공지능(AI)이 생성한 텍스트를 활용해 인공지능(AI) 모델을 훈련시킬수록 무의미하고(넌센스) 왜곡된 결과가 나온다는 경고가 나왔다. 인공지능 생성 텍스트가 인터넷에 널리 퍼지면서 사람이 만든 훈련 데이터가 고갈되는 현상이 벌어지고, 결국은 ‘모델 붕괴(model collapse)’라고 불리는 카니발리즘 현상(cannibalistic phenomenon)이 발생해 대규모 언어 모델(LLM·large language models)의 성능 개선을 멈추게 한다는 주장이다. 자카르 슈마일로프(Zakhar Shumaylov) 등 영국 캠브리지대학 연구팀은 지난달 24일 네..