Chat GPT4o fue lanzado por OpenAI para todos los usuarios
Ahora la Inteligencia Artificial (IA) podrá interactuar con los usuarios por texto, visión ó audio a través de Chat GPT4o: la nueva tecnología lanzada por Open IA.

Chat GPT-4o estará habilitado en las próximas horas de forma gratuita. Foto: Pexels.
Chat GPT4o se convirtió en tendencias globales durante este lunes 13 de mayo debido a que OpenAI lanzó su modelo actualizado con capacidades de interacción por texto, visión y audio gratis para todos los usuarios.
“Puede responder a entradas de audio en tan solo 232 milisegundos, con un promedio de 320 milisegundos, que es similar al tiempo de respuesta humano.(Se abre en una nueva ventana)en una conversación. Iguala el rendimiento de GPT-4 Turbo en texto en inglés y código, con una mejora significativa en texto en idiomas distintos del inglés, a la vez que es mucho más rápido y un 50 % más económico en la API. GPT-4o es especialmente mejor en cuanto a visión y comprensión de audio en comparación con los modelos existentes”, detalla OpenAI en un comunicado oficial.
También te puede interesar leer: Auriculares con IA vendrán con audio “selectivo”
Sam Altman, director ejecutivo de OpenAI, reveló que el modelo de este nuevo lanzamiento es “nativamente multimodal”. Esto quiere decir que ahora ChatGPT podrá recibir mensajes por comandos de voz, texto o imágenes y responder de forma efectiva a la solicitud.
La plataforma incorporó un modo de voz en este nuevo lanzamiento y te responderá en tiempo real, eso sí, responde un mensaje a la vez y trabaja solo con lo que puede escuchar con claridad.
¿Será gratis para todos?
Los expertos en tecnología analizan que las características que se incorporan al ChatGPT son una mejora “sustancial” a los servicios gratuitos disponibles en la web.“El nuevo modo de voz (y video) es la mejor interfaz de computadora que he usado. Parece la IA de las películas; y todavía me sorprende un poco que sea real”, concluyó Altman en su blog.
La voz de GPT-4o tiene un único modelo de extremo a extremo para el texto, visión o audio por igual. Esto quiere decir que las entradas y salidas son procesadas por la misma red neuronal, que combina todas las modalidades de interacción. También mejoró su rendimiento en razonamiento e inteligencia de codificación. ¿Estás listo para hablar con la IA como si fuera “Alexa” o “Siri”?