The launch of the voice cloning tool 'Voice Engine', announced by artificial intelligence company OpenAI last year, has been delayed for over a year. This AI technology can clone a person's voice using just a 15-second audio sample. OpenAI stated that they are currently conducting limited testing with "trusted partners". The company explained that they are exploring the potential applications of Voice Engine in various fields, including speech therapy and customer support. Initially, OpenAI planned to release Voice Engine on March 7, 2024, but changed their plans at the last moment. This decision was based on the need for discussions about ethical AI use and to gather feedback. Experts point to concerns about misuse and attempts to avoid regulatory scrutiny as reasons behind the delay in Voice Engine's release. There are particularly significant worries that AI voice cloning technology could be exploited for fraud or spreading false information. In fact, there was a surge in scams using AI voice cloning technology in 2024, and instances of celebrities' deepfake voices spreading rapidly online. OpenAI announced that they have implemented safety measures such as watermarking for Voice Engine, but have not disclosed specific implementation plans. As the company has not yet revealed an official release date, there is growing interest in the future direction of Voice Engine.
인공지능 기업 오픈AI가 지난해 발표한 음성 복제 도구 'Voice Engine'의 출시가 1년 넘게 지연되고 있다. 이 도구는 15초 분량의 음성 샘플만으로 사람의 목소리를 복제할 수 있는 AI 기술이다. 오픈AI 측은 현재 "신뢰할 수 있는 파트너"들과 제한적인 테스트를 진행 중이라고 밝혔다. 회사는 언어 치료, 고객 지원 등 다양한 분야에서 Voice Engine의 활용 가능성을 탐색하고 있다고 설명했다. 당초 오픈AI는 2024년 3월 7일 Voice Engine을 출시할 계획이었으나, 마지막 순간 계획을 변경했다. 윤리적 AI 사용에 대한 논의와 피드백 수집이 필요하다는 판단에서다. 전문가들은 Voice Engine 출시 지연의 배경으로 오용 우려와 규제 감시를 피하려는 의도를 지적한다. 특히 AI 음성 복제 기술이 사기나 허위정보 유포에 악용될 수 있다는 우려가 크다. 실제로 2024년 AI 음성 복제 기술을 이용한 사기가 급증했으며, 유명인의 딥페이크 음성이 온라인상에서 빠르게 확산되는 사례도 있었다. 오픈AI는 Voice Engine에 워터마킹 등 안전장치를 도입했다고 밝혔지만, 구체적인 시행 방안은 공개하지 않았다. 회사 측은 아직 정식 출시 일정을 밝히지 않고 있어, Voice Engine의 향후 행보에 관심이 모아지고 있다.
