miércoles, abril 03, 2024

LLEGAN LOS ROBOTS QUE SABEN SI ESTAMOS TRISTES O FELICES

Muchos de nosotros ya hablamos con nuestros dispositivos inteligentes como si fueran humanos. En el futuro, los dispositivos inteligentes podrán responder de manera similar, imitando los “umms” y “ahhs”, las risas y los suspiros, junto con otras señales que indican emociones humanas como la melodía, el ritmo y el timbre.

La startup Hume AI, con sede en Nueva York, ha presentado una nueva interfaz de voz de IA “emocionalmente inteligente” que se puede integrar en diferentes aplicaciones que van desde servicio al cliente y atención médica hasta realidad virtual y aumentada.

La versión beta del producto denominada Empathic Voice Interface (EVI) se lanzó después de conseguir una ronda de financiación serie B de 50 millones de dólares liderada por EQT Ventures. Union Square Ventures, Nat Friedman & Daniel Gross, Metaplanet, Northwell Holdings, Comcast Ventures y LG Technology Ventures también participaron en la financiación.

La IA conversacional es la primera entrenada para comprender cuándo los usuarios terminan de hablar, predecir sus preferencias y generar respuestas vocales optimizadas para la satisfacción del usuario a lo largo del tiempo, dice Hume AI en un comunicado.

"La principal limitación de los sistemas de IA actuales es que se guían por calificaciones e instrucciones humanas superficiales, que son propensas a errores y no logran aprovechar el vasto potencial de la IA para encontrar nuevas formas de hacer feliz a la gente", dijo el fundador de la compañía y dice el ex científico de Google Alan Cowen. "Al construir una IA que aprende directamente de los indicadores de la felicidad humana, le estamos enseñando efectivamente a reconstruir las preferencias humanas a partir de los primeros principios y luego actualizar ese conocimiento con cada nueva persona con la que habla y cada nueva aplicación en la que está integrada".

El modelo de voz se entrenó con datos de millones de interacciones humanas y se construyó sobre una IA generativa multimodal que integra grandes modelos de lenguaje (LLM) con medidas de expresión. Hume llama a esto un modelo empático de lenguaje grande (eLLM) y ayuda a su producto a ajustar las palabras y el tono de voz según el contexto y las expresiones emocionales del usuario.

Hume AI no es la única empresa que experimenta con la incorporación de emociones a la tecnología.

El roboticista de la Universidad de Columbia, Hod Lipson, ha creado un robot impulsado por inteligencia artificial que utiliza redes neuronales para mirar rostros humanos, predecir sus expresiones e intentar replicarlas con su propio rostro.

Los científicos del Instituto Nacional de Ciencia y Tecnología de Ulsan de Corea del Sur también han ideado una máscara facial que utiliza sensores para registrar datos de expresión verbal y no verbal.

El llamado sistema personalizado de interfaz facial integrada en la piel (PSiFI) realiza una transferencia de datos inalámbrica, lo que permite el reconocimiento de emociones en tiempo real.

Su desarrollador, Jiyun Kim, cree que el dispositivo portátil podría usarse en aplicaciones como conserjes digitales en realidad virtual que brinden servicios personalizados basados en las emociones de los usuarios, como recomendaciones de música, películas y libros.

FUENTEMaEl: 3Abril-2024 biometricupdate

No hay comentarios:

Publicar un comentario

Related Posts Plugin for WordPress, Blogger...