Google DeepMind has developed an AI model called “DolphinGemma” to decipher dolphin vocalizations. This model was trained using data from the Wild Dolphin Project (WDP), a nonprofit organization that studies the behavior of Atlantic spotted dolphins, and is capable of generating dolphin-like sound sequences. DolphinGemma is based on Google’s open Gemma series and is efficient enough to run on smartphones. This summer, WDP plans to use Google’s Pixel 9 smartphone to create synthetic dolphin sounds and operate a platform that listens for and responds to real dolphin vocalizations. Previously, WDP used the Pixel 6, but the upgrade to Pixel 9 will allow researchers to run AI models and template-matching algorithms simultaneously.
구글 딥마인드가 돌고래의 소리를 해독하는 AI 모델 ‘돌핀젬마(DolphinGemma)’를 개발했다. 이 모델은 대서양 점박이돌고래의 행동을 연구하는 비영리단체 WDP(Wild Dolphin Project)의 데이터를 활용해 훈련됐으며, 돌고래와 유사한 소리 시퀀스를 생성할 수 있다. 돌핀젠마는 구글의 오픈 젬마 시리즈를 기반으로 하며, 효율성이 높아 스마트폰에서도 구동 가능하다. WDP는 올여름 구글 픽셀9 스마트폰을 활용해 합성 돌고래 소리를 만들고, 실제 돌고래 소리에 반응하는 플랫폼을 운영할 계획이다. 기존에는 픽셀6를 사용했으나, 픽셀9로 업그레이드하면서 AI 모델과 템플릿 매칭 알고리즘을 동시에 실행할 수 있게 됐다.
