메타, 1107개 언어 '음성↔텍스트' 변환 AI 모델 공개
-
기사 스크랩
-
공유
-
댓글
-
클린뷰
-
프린트
메타가 기존 대비 10배 많은 언어를 음성에서 텍스트 또는 텍스트에서 음성으로 변환해주는 '대규모 다국어 음성인식'(MMS)' 인공지능(AI) 모델을 24일 오픈소스로 공개한다고 밝혔다.
현재 지구상에 사용되는 언어의 수는 7000개 이상으로 알려졌는데, 기존 음성 인식 모델은 최대 100여개의 언어만을 지원한다.
메타가 이번에 공개한 AI 모델은 변환이 가능한 언어의 수를 기존 100여개에서 1107개로 10배가량, 음성으로 식별할 수 있는 언어의 수를 4000개 이상으로 40배가량 늘렸다는 점에서 의미가 있다.
기존 음성 변환 모델과 비교했을 때 성능도 우수하다. 메타 분석 결과, 음성 변환 언어의 수를 61개에서 1107개로 18배가량 늘렸을 때 문자 오류율은 단 0.4% 증가했다.
또한 오픈AI의 음성인식 모델 '위스퍼'와 비교한 결과, MMS 데이터로 교육된 모델은 단어 오류율을 절반으로 줄이면서도 11배 더 많은 언어를 처리할 수 있는 것으로 나타났다.
메타는 언어 다양성 보존에 기여하고, AI 생태계 전반의 발전과 책임 있는 개발을 위해 MMS 모델과 코드를 오픈소스로 공개한다는 계획이다.
조아라 한경닷컴 기자 rrang123@hankyung.com
현재 지구상에 사용되는 언어의 수는 7000개 이상으로 알려졌는데, 기존 음성 인식 모델은 최대 100여개의 언어만을 지원한다.
메타가 이번에 공개한 AI 모델은 변환이 가능한 언어의 수를 기존 100여개에서 1107개로 10배가량, 음성으로 식별할 수 있는 언어의 수를 4000개 이상으로 40배가량 늘렸다는 점에서 의미가 있다.
기존 음성 변환 모델과 비교했을 때 성능도 우수하다. 메타 분석 결과, 음성 변환 언어의 수를 61개에서 1107개로 18배가량 늘렸을 때 문자 오류율은 단 0.4% 증가했다.
또한 오픈AI의 음성인식 모델 '위스퍼'와 비교한 결과, MMS 데이터로 교육된 모델은 단어 오류율을 절반으로 줄이면서도 11배 더 많은 언어를 처리할 수 있는 것으로 나타났다.
메타는 언어 다양성 보존에 기여하고, AI 생태계 전반의 발전과 책임 있는 개발을 위해 MMS 모델과 코드를 오픈소스로 공개한다는 계획이다.
조아라 한경닷컴 기자 rrang123@hankyung.com