¿Por qué tratar de comprender la jerga de la Generación Z cuando puede ser más fácil comunicarse con los animales? Hoy, Google dio a conocer el delfingema, un modelo de IA de código abierto diseñado para decodificar la comunicación del delfín analizando sus clics, silbatos y pulsos de explosión. El anuncio coincidió con el Día Nacional del Delphin. El modelo, creado en asociación con Georgia Tech y el Proyecto Wild Dolphin (WDP), aprende la estructura de la vocalización de los delfines y puede generar secuencias de sonido de Dolfin similares a los delfines. Aprovechan décadas de datos de audio y video meticulosamente etiquetados recopilados por WDP desde 1985. El proyecto ha estudiado Atlantic Spotted Dolphins en las Bahamas a través de generaciones utilizando un enfoque no invasivo que llaman «en su mundo, sobre sus términos». «Al identificar los patrones de sonido recurrentes, los clusters y las secuencias confiables, el modelo puede los investigadores de los investigadores de los investigadores y los medios posibles. La tarea que previamente requiere un inmenso esfuerzo humano «, dijo Google en su anuncio. El modelo AI, que contiene aproximadamente 400 millones de parámetros, es lo suficientemente pequeño como para funcionar en teléfonos píxeles que los investigadores usan en el campo. Procesa sonidos de delfines utilizando el tokenizador SoundStream de Google y predice sonidos posteriores en una secuencia, al igual que cómo los modelos de lenguaje humano predicen la siguiente palabra en una oración. Funciona junto con el sistema de chat (telemetría de aumento de audición de cetáceos), que asocia silbatos sintéticos con objetos específicos que disfrutan los delfines, como sargassum, pasos marinos o bufandas, potencialmente estableciendo un vocabulario compartido para la interacción «. Eventualmente, estos patrones, aumentados con los sonidos sintetéticos creados por los investigadores a los objetos con los objetos con los que los dolfins les gusta a los que los dolfins le gusta a los juegos, se establecen estos patrones, pueden establecerse con los vocales sintetéticos. Dolphins para comunicación interactiva «, según Google.field, los investigadores usan actualmente los teléfonos Pixel 6 para el análisis en tiempo real de los sonidos de Dolphins. El equipo planea actualizar a los dispositivos Pixel 9 para la temporada de investigación de verano 2025, que integrará las funciones de los altavoces y micrófonos mientras ejecutan los modelos de aprendizaje profundo y la plantilla de la plantilla. Trabajo de campo marino. Las capacidades predictivas de Dolphingemma pueden ayudar a los investigadores a anticipar e identificar imitaciones potenciales antes en las secuencias de vocalización, lo que hace que las interacciones sean más fluidas.
Comprender lo que no se puede entender
DolphinGemma joins several other AI initiatives aimed at cracking the code of animal communication.The Earth Species Project (ESP), a nonprofit organization, recently developed NatureLM, an audio language model capable of identifying animal species, approximate age, and whether sounds indicate distress or play—not really language, but still, ways of establishing some primitive communication.The model, trained on a mix of human language, environmental sounds, and animal vocalizations, has shown promising results Incluso con las especies que no ha encontrado antes. Project CETI representa otro esfuerzo significativo en este espacio. Liderado por investigadores, incluido Michael Bronstein, de Imperial College London, se enfoca específicamente en la comunicación de la banda de espermato técnicas. Mientras estos proyectos se centran en la decodificación de sonidos de animales, los investigadores de la Universidad de Nueva York se han inspirado en el desarrollo del bebé para el aprendizaje de IA. Su visión del niño para el modelo de aprendizaje contrastado (CVCL) aprendió el idioma al ver el mundo a través de la perspectiva de un bebé, utilizando imágenes de una cámara montada en la cabeza usada por un infante de 6 meses a 2 años. Distribuidamente con los modelos de IA tradicionales que requieren billones de palabras para el entrenamiento. Google planea compartir una versión actualizada de Dolphingemma este verano, potencialmente extendiendo su utilidad más allá de los delfines manchados del Atlántico. Aún así, el modelo puede requerir un ajuste fino para las vocalizaciones de diferentes especies. WDP se ha centrado ampliamente en la correlación de sonidos de delfines con comportamientos específicos, incluidas las silbatos de firma utilizadas por las madres y las pantorrillas para reunirse, se reúnen, no escuchan a los «chorro» durante los conflictos y hacen clic «se usa» utilizados durante la cortesía o cuando los chasks, no solo estamos escuchando solo la escucha «, no es escuchando. «Estamos comenzando a comprender los patrones dentro de los sonidos, allanando el camino para un futuro en el que la brecha entre la comunicación humana y del delfín podría ser un poco más pequeña». Editado por Sebastian Sinclair y Josh Quittner
Boletín generalmente inteligente
Un viaje semanal de IA narrado por Gen, un modelo de IA generativo.
Descargo de responsabilidad: Los puntos de vista y opiniones expresadas en este artículo pertenecen a su autor y no necesariamente reflejan aquellas de CriptoPasion. La opinión del autor es a título informativo y en ninguna circunstancia constituye una recomendación de inversión ni asesoría financiera.