banner
Centro de Noticias
Estamos dedicados a ofrecer productos de alta calidad a precios competitivos.

OpenAI lanza GPT

Apr 11, 2024

OpenAI ha lanzado un nuevo y poderoso modelo de inteligencia artificial para comprender imágenes y textos, GPT-4, que la compañía llama "el último hito en su esfuerzo por ampliar el aprendizaje profundo".

GPT-4 está disponible hoy para los usuarios pagos de OpenAI a través de ChatGPT Plus (con un límite de uso), y los desarrolladores pueden registrarse en una lista de espera para acceder a la API.

El precio es de 0,03 dólares por 1.000 tokens "rápidos" (unas 750 palabras) y 0,06 dólares por 1.000 tokens "de finalización" (nuevamente, unas 750 palabras). Los tokens representan texto sin formato; por ejemplo, la palabra "fantástico" se dividiría en los tokens "fan", "tas" y "tic". Los tokens de aviso son las partes de las palabras ingresadas en GPT-4, mientras que los tokens de finalización son el contenido generado por GPT-4.

Resulta que GPT-4 se ha estado ocultando a plena vista. Microsoft confirmó hoy que Bing Chat, su tecnología de chatbot desarrollada conjuntamente con OpenAI, se ejecuta en GPT-4.

Otros usuarios pioneros incluyen Stripe, que utiliza GPT-4 para escanear sitios web comerciales y entregar un resumen al personal de atención al cliente. Duolingo incorporó GPT-4 a un nuevo nivel de suscripción de aprendizaje de idiomas. Morgan Stanley está creando un sistema basado en GPT-4 que recuperará información de los documentos de la empresa y la entregará a los analistas financieros. Y Khan Academy está aprovechando GPT-4 para crear una especie de tutor automatizado.

Las nuevas capacidades de GPT-4 impulsan a un 'voluntario virtual' para personas con discapacidad visual

GPT-4 puede generar texto y aceptar entradas de imágenes y texto (una mejora con respecto a GPT-3.5, su predecesor, que solo aceptaba texto) y se desempeña a "nivel humano" en varios puntos de referencia profesionales y académicos. Por ejemplo, GPT-4 aprueba un examen de abogacía simulado con una puntuación cercana al 10% superior de los examinados; por el contrario, la puntuación de GPT-3.5 se situó en torno al 10% inferior.

OpenAI pasó seis meses "alineando iterativamente" GPT-4 utilizando lecciones de un programa interno de pruebas adversas, así como ChatGPT, lo que resultó en "los mejores resultados de su historia" en cuanto a factibilidad, direccionabilidad y negativa a salirse de las barreras de seguridad, según la compañía. Al igual que los modelos GPT anteriores, GPT-4 se entrenó utilizando datos disponibles públicamente, incluso de páginas web públicas, así como datos con licencia de OpenAI.

OpenAI trabajó con Microsoft para desarrollar una "supercomputadora" desde cero en la nube de Azure, que se utilizó para entrenar GPT-4.

"En una conversación informal, la distinción entre GPT-3.5 y GPT-4 puede ser sutil", escribió OpenAI en una publicación de blog anunciando GPT-4. "La diferencia surge cuando la complejidad de la tarea alcanza un umbral suficiente: GPT-4 es más confiable, creativo y capaz de manejar instrucciones mucho más matizadas que GPT-3.5".

Sin duda, uno de los aspectos más interesantes de GPT-4 es su capacidad para comprender tanto imágenes como texto. GPT-4 puede subtitular, e incluso interpretar, imágenes relativamente complejas, por ejemplo, identificar un adaptador de cable Lightning a partir de una imagen de un iPhone conectado.

La capacidad de comprensión de imágenes aún no está disponible para todos los clientes de OpenAI; para empezar, OpenAI la está probando con un solo socio, Be My Eyes. Con tecnología de GPT-4, la nueva función Voluntario virtual de Be My Eyes puede responder preguntas sobre las imágenes que se le envían. La empresa explica cómo funciona en una publicación de blog:

“Por ejemplo, si un usuario envía una fotografía del interior de su frigorífico, el Voluntario Virtual no sólo podrá identificar correctamente lo que contiene, sino también extrapolar y analizar qué se puede preparar con esos ingredientes. La herramienta también puede ofrecer una serie de recetas para esos ingredientes y enviar una guía paso a paso sobre cómo prepararlos”.

Una mejora potencialmente más significativa en GPT-4 es la herramienta de direccionabilidad antes mencionada. Con GPT-4, OpenAI está introduciendo una nueva capacidad API, mensajes de "sistema", que permiten a los desarrolladores prescribir estilos y tareas describiendo direcciones específicas. Los mensajes del sistema, que también llegarán a ChatGPT en el futuro, son esencialmente instrucciones que marcan el tono (y establecen límites) para las próximas interacciones de la IA.

Por ejemplo, un mensaje del sistema podría decir: “Eres un tutor que siempre responde al estilo socrático. Nunca le da la respuesta al estudiante, pero siempre intenta hacer la pregunta correcta para ayudarlo a aprender a pensar por sí mismo. Siempre debes adaptar tu pregunta al interés y conocimiento del estudiante, dividiendo el problema en partes más simples hasta que esté en el nivel adecuado para él”.

Sin embargo, incluso con los mensajes del sistema y otras actualizaciones, OpenAI reconoce que GPT-4 está lejos de ser perfecto. Todavía “alucina” hechos y comete errores de razonamiento, a veces con gran confianza. En un ejemplo citado por OpenAI, GPT-4 describió a Elvis Presley como el "hijo de un actor", un paso en falso obvio.

“GPT-4 generalmente carece de conocimiento de los eventos que ocurrieron después de que se cortó la gran mayoría de sus datos (septiembre de 2021) y no aprende de su experiencia”, escribió OpenAI. “A veces puede cometer errores de razonamiento simples que no parecen concordar con la competencia en tantos dominios, o ser demasiado crédulo al aceptar declaraciones falsas obvias de un usuario. Y a veces puede fallar en problemas difíciles de la misma manera que lo hacen los humanos, como introducir vulnerabilidades de seguridad en el código que produce”.

OpenAI sí señala, sin embargo, que realizó mejoras en áreas particulares; Es menos probable que GPT-4 rechace solicitudes sobre cómo sintetizar sustancias químicas peligrosas, por ejemplo. La compañía dice que GPT-4 tiene un 82% menos de probabilidades en general de responder a solicitudes de contenido "no permitido" en comparación con GPT-3.5 y responde a solicitudes sensibles (por ejemplo, asesoramiento médico y cualquier cosa relacionada con la autolesión) de acuerdo con las políticas de OpenAI 29 % más a menudo.

Créditos de imagen:Abierto AI

Claramente hay mucho que desempacar con GPT-4. Pero OpenAI, por su parte, está avanzando a todo vapor, evidentemente confiado en las mejoras que ha realizado.

"Esperamos que GPT-4 se convierta en una herramienta valiosa para mejorar la vida de las personas al impulsar muchas aplicaciones", escribió OpenAI. "Aún queda mucho trabajo por hacer y esperamos mejorar este modelo a través de los esfuerzos colectivos de la comunidad construyendo sobre el modelo, explorando y contribuyendo al mismo".

Créditos de imagen: