Speaker 1: ¿Los elefantes se ponen nombres unos a otros? ¿Querrán los perros poder hablar con nosotros? ¿Y entender el canto de las ballenas podría salvar a estos bellos gigantes marinos? Investigadoras e investigadores están tratando de descifrar el lenguaje de los animales con ayuda de la inteligencia artificial. Como vamos a ver ahora, los avances ya son gigantescos. Pero, ¿cómo exactamente podría la inteligencia artificial ayudarnos a entender mejor a los animales y a protegerlos? Este es nuestro tema de hoy. Bienvenidos a Enlaces. Esta que ven aquí es Lupe. Es la perrita de Sara, la productora de este programa. Ella y Lupe pasan tanto tiempo juntas que se conocen y seguramente se entienden mejor que muchas personas. Si alguna vez han tenido un perro, sabrán que la conexión puede ser muy fuerte. Finalmente llevamos conviviendo unos 20.000 años con esta especie. Pero, ¿qué tanto entienden lo que les comunicamos? Sabemos que leen nuestro lenguaje corporal, que entienden órdenes y reaccionan a palabras sueltas. Pero, ¿son capaces incluso de formar combinaciones de palabras? Esto con ayuda de unos tableros con botones a los que les dicen cajas de resonancia. Lo vi hace poquito en TikTok. Ahora, el científico cognitivo Federico Rossano estudia este fenómeno.
Speaker 2: Los botones que el perro pulsa más seguido son comida, golosinas, salir, jugar, agua. Esto demuestra que el perro no aprieta los botones al azar ni por imitación, sino que presiona lo que quiere o necesita con independencia de lo que el humano podría pensar que quiere. No todos los canes participantes tienen la misma capacidad de aprendizaje. Federico Rossano basó su investigación en 60 perros capaces de utilizar más de 100 botones. Los científicos evalúan los resultados con una aplicación que contabiliza todas las interacciones y con el apoyo de cámaras de vigilancia. A veces combinan dos botones, por ejemplo, quiero salir o quiero comida, y se puede ver que estas combinaciones no son aleatorias. Es decir, que no pulsan estos dos botones uno tras otro por accidente, sino que tienden a pulsar estos dos botones de forma consistente para solicitar algo.
Speaker 1: Hay estudios que sugieren que los perros pueden comunicarse de formas bastante complejas, incluso con nosotros los humanos. Probablemente podrían decirnos algo más que, tengo hambre. También sabemos o podemos observar que los animales, en general, se comunican entre sí, pero en muchos casos lo que comunican es un misterio para nosotros. Sin embargo, con ayuda de la inteligencia artificial, esto podría ser cosa del pasado. Unos científicos de la Universidad Estatal de Colorado estuvieron estudiando a unos elefantes y descubrieron algo increíble.
Speaker 3: Este elefante está llamando a otro por su nombre. Los científicos llevan años estudiando los sonidos de los animales. Es una tarea difícil porque ciertos tonos de sus llamadas son inaudibles para los humanos y su significado es complejo. Con la ayuda de la inteligencia artificial y su capacidad de analizar grandes cantidades de datos, los científicos descubrieron patrones y demostraron que los elefantes usan nombres para llamarse entre sí. Analizamos estos llamados con un modelo de aprendizaje automático. Eso nos permitió obtener pruebas claras de que los llamados están definidos vocalmente para ciertos animales. Es decir, que los elefantes inventan nombres abstractos para los demás, al igual que los humanos. Otros animales pueden utilizar sonidos para llamar a sus congéneres, pero los sonidos de los elefantes son diferentes. No son sonidos imitativos ni están estructurados por la forma en que se comunica el individuo receptor. Es más bien un constructo creado por los elefantes para identificarse entre sí. Un delfín, por ejemplo, llama a otro imitando su sonido característico. Otros animales, como los loros o los monos tití, hacen lo mismo, imitan determinados sonidos. Los elefantes van más allá, inventan un nombre para cada individuo, igual que los humanos. Su capacidad de pensamiento abstracto es más avanzada de lo que se creía hasta ahora. Es un descubrimiento muy emocionante. Nos permite comprender mejor cómo funciona el cerebro de los elefantes y el alcance de sus capacidades cognitivas. La evidencia sugiere que pueden concebir las cosas de manera abstracta.
Speaker 1: Súper interesante, ¿no lo creen? Los elefantes usan nombres para llamarse entre ellos. Pero, ¿cómo lo comprobaron con ayuda de la inteligencia artificial? Les cuento. Los científicos estuvieron grabando los sonidos o las llamadas de los elefantes en dos reservas naturales de Kenia durante más de cuatro años. Y no solo registraron los sonidos, también observaron con detalle el comportamiento. ¿Quién emitía el sonido? ¿A quién iba dirigido? ¿Y en qué contexto? Después codificaron estos patrones de sonido y de contexto en datos numéricos para poder analizarlos. Finalmente, crearon un modelo estadístico en donde introdujeron casi 500 llamadas. De esta forma, el modelo, al registrar una nueva llamada, podía predecir a quién se dirigía. Y así demostraron que los elefantes realmente se llaman por su nombre.
Speaker 3: Sin embargo, no se deben estudiar únicamente los sonidos. Al fin y al cabo, los animales utilizan muchos órganos sensoriales para comunicarse. Además, la inteligencia artificial y sus amplios modelos lingüísticos dependen de la información humana y nuestros conocimientos actuales son limitados. Así que primero hay que recopilar y analizar la inmensa cantidad de sonidos que emiten. Espero que esto ayude a destacar que hay otras especies con vidas y relaciones muy complejas, seres capaces de concebir el mundo con gran complejidad y que ni siquiera reconocemos. Ojalá que esto nos sirva para valorar más a esas especies y para replantearnos el impacto que tenemos sobre ellas.
Speaker 1: Estos investigadores no son los únicos que tienen interés en crear conciencia y proteger a los animales con ayuda de la tecnología. En Chile, por ejemplo, lo hace la bióloga marina Marcela Ruiz. Ella analiza los sonidos del océano, como este. Muchos de ustedes lo habrán identificado. Su objetivo es entender cómo se comportan estos gigantes marinos y así poder protegerlos mejor. Echemos un vistazo a su trabajo.
Speaker 2: El Océano Pacífico en la costa de Chile es un paraíso para el avistamiento de cetáceos. La mitad de todas las especies de ballenas pasan por aquí, entre ellas las jorobadas, las azules y los cachalotes. Los problemas de los océanos no son tan fáciles de reconocer. La bióloga marina Marcela Ruiz quiere saber más sobre el estado de los ecosistemas marinos mediante bollas hidroacústicas.
Speaker 4: Nosotros en Acústica Marina tenemos un sueño. Es un sueño grande, desafiante. Y nosotros queremos instalar una red de bollas desde la Antártica hasta Panamá. Y eso lo vamos a lograr a través de la colaboración de las redes, de la gestión de las voluntades.
Speaker 2: Analizar los océanos plantea muchos retos. Debido a su vasta extensión, es difícil recoger datos en todas partes en tiempo real. Los sensores instalados frente a las costas de Chile son un primer paso para captar los sonidos polifónicos submarinos. La cantidad de datos generados es tan enorme que los humanos solos no pueden analizarla.
Speaker 4: La inteligencia artificial es una herramienta que va a ayudar al entendimiento profundo de los océanos, dado que nosotros en la actualidad conocemos solamente el 20% de lo que sucede en los océanos, porque nos cuesta mucho capturar los datos, pero además nos cuesta procesar esos datos. Entonces toda la analítica va a pasar sí o sí por aprendizaje, por entrenamiento, que nos va a permitir ver cosas que hoy día, como humanos, no podemos ver, no podemos entender.
Speaker 2: La empresa acústica marina, fundada por Marcela Ruiz, ha instalado sus boyas de monitoreo a lo largo de toda la costa de Chile. También en el norte del país, frente a la localidad de Chungungo. El equipo acude aquí regularmente para analizar los últimos datos hidroacústicos que pueden proceder de animales, humanos o de la naturaleza. No obstante, hay un rango de esos datos
Speaker 4: que no es audible por el humano. Por lo tanto, ahí la inteligencia artificial contribuye en ese análisis, en ese entendimiento, pero también nos permite entrenar grandes cantidades de datos. Por lo tanto, la inteligencia artificial en la hidroacústica hoy día y en nuestro trabajo, es fundamental. Gracias a la inteligencia artificial se puede capturar los datos
Speaker 2: Gracias a la inteligencia artificial se pueden analizar de forma mucho más eficaz los datos recopilados. Marcela Ruiz cree que un sistema de IA podría reaccionar mucho más rápido si la información submarina se transmitiera automáticamente desde las boyas y se analizara en tiempo real mediante algoritmos. Por ejemplo, al detectar cantos de ballenas en las grabaciones.
Speaker 4: Toda la información que se está obteniendo en esta localidad y en otras localidades permite levantar las alertas para cada vez que hay presencia de ballenas poder avisar a los barcos que reduzcan su velocidad o que cambien de rumbo. Eso va a hacer disminuir las colisiones en el tiempo y sobre todo si tenemos más redes de boyas instaladas lo que nos va a permitir proteger.
Speaker 2: La industria pesquera nacional también podría beneficiarse del proyecto si los arrastreros ilegales pudieran ser detectados y detenidos desde el primer momento. Marcela Ruiz ya ha recibido varios premios. En 2023 fue reconocida por su labor para acortar la brecha de género en el ámbito tecnológico y científico.
Speaker 4: Nosotras tenemos todas las capacidades de poder tener carreras de las disciplinas de la ciencia, tecnología, ingeniería y matemática. Por lo tanto lo importante ahí es que nosotras rompamos esas barreras.
Speaker 2: La bióloga marina prevé que en el futuro las diferentes ramas científicas estarán más interconectadas y en lo que respecta a la inteligencia artificial confía en las nuevas camadas de científicos y científicas.
Speaker 4: Yo creo que los jóvenes están mucho más familiarizados de forma innata, podríamos decir. Con todo el desarrollo tecnológico. Por lo tanto, si siguen en esa línea van a tener un excelente aliado para poder llevar sus carreras adelante y para poder ayudarnos a todos a resolver los problemas globales dado que en sus manos está parte del futuro de nuestra humanidad.
Speaker 1: Supongo que ese es uno de los fines más lindos de la tecnología. Ayudarnos a entender mejor nuestro planeta y sus animales para poder protegerlos. Pero a veces también nos puede ayudar en casa para entender mejor a los animales con los que convivimos cada día. En Japón crearon una aplicación que puede medir el bienestar de una de las mascotas más queridas del planeta.
Speaker 3: ¿Este gato se siente bien o sufre algún dolor? Ojalá pudiéramos preguntárselo a nuestras mascotas. Una aplicación de inteligencia artificial diseñada en Japón puede ayudar en estos casos. Fue entrenada con miles de fotos de gatos. Clasificamos la expresión facial de los gatos que mostraban dolor. La inteligencia artificial del software puede determinar hasta qué punto la expresión facial del gato coincide con las fotos clasificadas
Speaker 5: en las que los animales tenían dolor.
Speaker 3: Como resultado, la aplicación tiene una precisión superior al 95%. Mayumi Kitakata utiliza ahora una nueva aplicación para comprobar el estado de salud de su gato de 14 años. El animal sufre molestias relacionadas con la vejez. Mi gato sufrió una herida en la boca, pero podía seguir comiendo incluso con toda la boca inflamada.
Speaker 5: Es difícil saber si está bien
Speaker 3: porque come aunque le duela. Pero si ahora la aplicación indica que tiene dolor, puedo saber que hay un problema pendientemente de si está comiendo o no, y eso es muy útil. Así, quienes tengan un gato como mascota podrán decidir si realmente es necesaria una visita al veterinario.
Speaker 1: Ya sea en el mar o en tierra firme, los investigadores de animales de todo el mundo confían en la inteligencia artificial para proteger a las especies, incluyendo a los gorilas. Todas las subespecies de los mayores simios del mundo están en peligro de extinción. Sus poblaciones están disminuyendo, en algunos casos de forma drástica. Los científicos están, de momento, estudiando a los gorilas en zoológicos y con ayuda de inteligencia artificial para así poder comprender mejor a sus congéneres en libertad.
Speaker 2: Los gorilas del zoológico de Berlín no solo se dedican a comer y a dejar claro quién manda. También aportan datos para salvar a sus congéneres en la selva. Cámaras con rastreadores reconocen a cada uno de los gorilas y los siguen durante largos periodos de tiempo. Una red neuronal especializada utiliza los rasgos faciales para crear una huella digital que identifica a cada animal. Los rastreadores recopilan datos sobre el comportamiento, los patrones de movimiento y las estructuras sociales de cada animal, y se analizan por medio de la IA. Científicos del Instituto Hasselbladner desarrollaron la tecnología para ayudar a investigadores del Congo. Esta es la cámara de fauna con sensor de movimiento. Hay 92 de ellas en el Congo. Y este es el Sentinel, donde convertimos nuestra IA alojada en un gran servidor para poder ejecutarla en el pequeño dispositivo. Así podemos transferir los datos por satélite y conocer la identificación de los gorilas. El Parque Nacional Otzala en el Congo tiene más cámaras. Sus imágenes también entrenan a la IA y aportan nuevos datos sobre el comportamiento de los gorilas. Esto permitirá reaccionar con mayor rapidez ante peligros como brotes de enfermedades.
Speaker 1: Los científicos también utilizan la inteligencia artificial para comprender mejor a los leones. Una iniciativa internacional de conservación de la vida salvaje con inteligencia artificial, conocida como GAIA, está desarrollando unos collares con GPS en colaboración con el Zoológico de Berlín. Buscan registrar los movimientos de los leones y analizarlos
Speaker 2: con inteligencia artificial. Los collares de los leones Elsa y Mateo contienen sensores que rastrean cada uno de sus movimientos. Estos datos entrenan a una IA. Para ello se combinan los datos de los sensores con los de una cámara. Hasta ahora nos hemos centrado en los movimientos de los animales, pero también queremos entender qué hacen en un momento determinado para comprender mejor su comportamiento. Eso nos permitirá deducir qué necesidades tienen para mejorar su conservación. Los científicos observan atentamente dónde comen los leones, dónde se aparean y se acicalan. Esto permite planificar medidas de conservación específicas, pero ¿pueden trasladarse directamente los datos del zoo a la naturaleza? Los datos que obtengamos en el zoo no serán los mismos que en la naturaleza, pero los patrones básicos de comportamiento son los mismos. Dormir, comer, caminar, desplazarse. Estos leones juegan entre ellos, rugen por la noche, marcan su territorio. Hacer los estudios preliminares aquí nos ahorra mucho tiempo, dinero y esfuerzo. La IA aprende en el zoológico, porque en la naturaleza no es tan fácil observar a los leones con un collar y una cámara.
Speaker 1: Hasta ahora hemos visto que la inteligencia artificial se está empezando a aplicar para comprender mejor a ciertas especies animales y también para repoblarlas, pero en el Reino Unido hay algo curioso. Inteligencia artificial como anticonceptivo. Lo que quieren es proteger a las ardillas rojas autóctonas en peligro de extinción. Suena contradictorio, pero la cosa funciona así. Hay un virus que porta a su pariente, la ardilla gris. Estas son oriundas de Norteamérica y fueron introducidas en Europa hace unos 150 años. Estas ardillas grises son inmunes al poxvirus, que para las ardillas rojas no es tan grave. Ahora un sistema de reconocimiento de imágenes por inteligencia artificial puede distinguir estas especies con un 97% de precisión y controlar automáticamente el acceso a los comederos. Las rojas tienen acceso a las nueces y las grises ingieren una pastilla anticonceptiva. Sin lugar a dudas, este es un tema que da mucho de qué hablar. Lo que me deja con un sabor de boca mucho más agradable es que la inteligencia artificial para entender mejor a los animales con los que convivimos en este planeta. Al entenderlos mejor, quizás podamos crear una mayor conciencia al respecto. ¿Y ustedes qué piensan sobre estos avances? Si les gusta este tipo de contenidos, los invito a que nos sigan en nuestra playlist de YouTube Tecnología y Mundo Digital. Nos vemos pronto. ¡Cheers. Subtítulos realizados por la comunidad de Amara.org
Generate a brief summary highlighting the main points of the transcript.
GenerateGenerate a concise and relevant title for the transcript based on the main themes and content discussed.
GenerateIdentify and highlight the key words or phrases most relevant to the content of the transcript.
GenerateAnalyze the emotional tone of the transcript to determine whether the sentiment is positive, negative, or neutral.
GenerateCreate interactive quizzes based on the content of the transcript to test comprehension or engage users.
GenerateWe’re Ready to Help
Call or Book a Meeting Now