언론재단, 20년치 기사 학습한 AI언어모델 'KPF-BERT' 공개

문맥 고려한 맞춤법 검사기·댓글 혐오표현 순화 모델 개발 등에 활용 전망 한국언론진흥재단은 '언론사를 위한 언어정보 자원 개발 사업' 결과물인 'KPF-BERT'를 공개했다고 23일 밝혔다.

'KPF-BERT'는 구글에서 개발한 자연어 처리 딥러닝 언어 모델인 'BERT(Bidirectional Encoder Representations from Transformers)'에 언론재단이 보유한 빅카인즈 기사 데이터를 학습시킨 결과물이다. 구글이 2018년 발표한 'BERT'는 앞의 단어들을 참조해 다음에 나올 단어를 예측하는 단방향 언어 모델과 달리 문장에서 예측해야 할 단어 이후의 단어들까지 양방향으로 참조해 그 의미를 더 잘 이해하는 방식으로 학습한다.

인공지능을 활용한 뉴스 추천 배열이나 자동작성, 요약, 댓글 관리, 오탈자와 비문 교정 등 언론 영역에서 인공지능(AI) 기술 도입과 적용 필요성은 높아지고 있으나 언론사들은 자체 기술개발에 어려움을 겪고 있다.

이에 언론재단은 '언론사를 위한 언어정보 자원 개발' 사업을 추진했고, 그 결과물로 'KPF-BERT'를 공개하게 됐다고 설명했다. BERT를 활용한 기존 한국어 모델들은 위키백과나 웹 문서 등을 주로 학습했으나 'KPF-BERT'는 언론재단이 보유한 2000∼2021년 8월의 빅카인즈 기사 8천만 건 중 1차 정제를 통해 추려낸 약 4천만 건을 학습해 언론사와 뉴스 기사 활용 기술에 최적화되도록 개선했다.

'KPF-BERT'는 한국전자통신연구원(ETRI) BERT, SKT의 koBERT보다 기계 독해 등에서 향상된 성능을 보여줬다고 언론재단은 전했다.

이 기관은 'KPF-BERT' 구축과 활용을 위한 안내 내용을 '한국언론진흥재단 깃허브(https://github.com/KPFBERT/)'에 모두 공개해 언론사와 연구자, 일반 시민 모두가 무상으로 이용할 수 있도록 했다. 또 'KPF-BERT'를 활용한 기사 요약기술, 비슷한 주제의 기사를 한데 묶는 클러스터링 기술도 개발해 한국언론진흥재단 깃허브에 함께 공개했다.

언론재단은 'KPF-BERT'를 활용할 경우 단순 맞춤법 검사를 넘어 문맥과 의미를 고려한 맞춤법 검사기, 뉴스 댓글 등에서 혐오 표현을 검출하고 순화해 표현하는 모델, 관심 사안에 대한 기사의 긍정·부정 등의 논조 파악 모델 등의 개발이 가능할 것으로 기대했다.

'KPF-BERT'의 이해를 돕는 영상은 유튜브 링크(https://youtu.be/Pj6563CAnKs)를 통해 볼 수 있다.

/연합뉴스