OpenAI lanza su nuevo modo de voz avanzado en GPT-4

Redacción 

OpenAI ha revelado su nuevo modelo multimodal de inteligencia artificial, GPT-4o, que promete revolucionar la interacción con inteligencia artificial al permitir analizar texto, visión y audio simultáneamente. Tras meses de espera y algunos retrasos, la compañía finalmente ha lanzado su esperado modo de voz, una característica que hace las conversaciones con ChatGPT más naturales y fluidas.

El nuevo “modo de voz avanzado” (AVM, por sus siglas en inglés) estará disponible inicialmente para los usuarios de las versiones de pago de ChatGPT, como los niveles Plus y Teams, y en los próximos días llegará a usuarios de Enterprise y Edu. Este despliegue comenzó en modo alfa hace unos meses y ya está listo para un lanzamiento más amplio.

Una de las grandes novedades del AVM es la posibilidad de interactuar con ChatGPT de manera continua, permitiendo interrumpir respuestas, agregar instrucciones o ajustar la conversación en tiempo real, como si se tratara de un diálogo con otra persona. Esta es una mejora significativa respecto a la versión anterior, que solo permitía interacciones por turnos.

Otra actualización destacada es el diseño renovado de la interfaz: ahora, cuando ChatGPT escucha, aparece una esfera azul animada, en lugar de los puntos animados tradicionales. Además, el modo de voz avanzado introduce cinco nuevas voces —Arbor, Maple, Sol, Spruce y Vale— con distintas entonaciones, para que los usuarios elijan la que mejor se adapte a sus preferencias.

Aunque el AVM incluye varias mejoras, algunas funciones que OpenAI había mostrado en su demostración no han sido lanzadas aún, como la posibilidad de compartir pantalla y video en tiempo real, lo que permitiría a ChatGPT procesar simultáneamente tanto audio como imágenes. OpenAI no ha dado una fecha para la incorporación de estas características.

Además, la empresa eliminó la voz de “Sky”, que fue usada en la demostración de primavera y que generó controversia por su parecido con la de la actriz Scarlett Johansson, quien amenazó con una demanda, lo que obligó a OpenAI a retirarla.

El despliegue del AVM no es universal. Mientras que México está entre los países donde esta función ya puede ser utilizada, no está disponible en regiones como la Unión Europea, Reino Unido, Suiza, Islandia, Noruega y Liechtenstein. Sin embargo, se espera que la funcionalidad llegue a más países en los próximos meses, mientras OpenAI ajusta su disponibilidad a las regulaciones locales.