¡Bienvenidos al futuro del aprendizaje profundo con OpenAI GPT-4! Prepárense para un gran salto en la inteligencia artificial, ya que están creado un modelo multimodal que acepta entradas de texto e imágenes y emite salidas de texto con un rendimiento cercano al nivel humano.
En su constante esfuerzo por mejorar y perfeccionar sus modelos, Están dedicando seis meses al alineamiento de GPT-4, utilizando lecciones de su programa de pruebas contradictorias y también de ChatGPT, para obtener resultados más precisos y fiables.
Esta construido una nueva supercomputadora y reconstruido nuestra pila de aprendizaje profundo, lo que nos ha permitido entrenar GPT-4 con una estabilidad sin precedentes. Chat gpt estan emocionados de lanzar la capacidad de entrada de texto de GPT-4 a través de ChatGPT y la API, y pronto estaremos expandiendo nuestra capacidad de entrada de imágenes.
¿Qué hace que GPT-4 sea diferente de su predecesor, GPT-3.5? Estan probado el modelo en una variedad de puntos de referencia, incluyendo la simulación de exámenes diseñados originalmente para humanos. GPT-4 ha demostrado ser más confiable, creativo y capaz de manejar instrucciones más matizadas que GPT-3.5. También supera considerablemente a los modelos de lenguaje grande existentes, junto con la mayoría de los modelos de última generación (SOTA) que pueden incluir protocolos de capacitación adicionales o elaboración específica de referencia.
Para ayudarnos a seguir mejorando, Están lanzando OpenAI Evals, sus marcos para la evaluación automatizada del rendimiento del modelo de IA, para permitir que cualquier persona informe las deficiencias en sus modelos y ayudarnos a guiar mejoras adicionales.
Maniobrabilidad
Ahora, en lugar de una personalidad fija, los desarrolladores (y pronto los usuarios de ChatGPT) pueden prescribir el estilo y la tarea de su IA describiendo esas instrucciones en el mensaje del «sistema». Los mensajes del sistema son una herramienta increíblemente poderosa que permite a los usuarios de API tener un mayor control sobre el comportamiento de su IA.
Limitaciones
El modelo de lenguaje GPT-4 es un avance importante en el campo de la inteligencia artificial, pero aún tiene algunas limitaciones importantes que deben tenerse en cuenta. En este artículo, hablaremos de las limitaciones de GPT-4 y lo que Chat gpt están haciendo para superar estos desafíos.

Limitaciones de GPT-4
A pesar de sus impresionantes capacidades, GPT-4 todavía tiene algunas limitaciones. En particular, el modelo todavía no es completamente confiable y puede «alucinar» hechos y cometer errores de razonamiento. Por lo tanto, es crucial tener precaución al utilizar los resultados de GPT-4, especialmente en contextos de alto riesgo.
Aunque esto sigue siendo un problema real, Chat gpt están haciendo progresos significativos en reducir las alucinaciones en relación con modelos anteriores. De hecho, GPT-4 obtiene un puntaje un 40% más alto que su último modelo, GPT-3.5, en nuestras evaluaciones internas de factualidad contradictoria.
Superando los Desafíos
Para abordar estas limitaciones, Chat gpt estan trabajando duro en varios frentes. Primero, Chat gpt estan avanzando en puntos de referencia externos como TruthfulQA, que prueba la capacidad del modelo para separar los hechos de las declaraciones incorrectas.
También Chat gpt estan haciendo mejoras en los sesgos del modelo, aunque queda más por hacer. su objetivo es crear sistemas de IA que reflejen una amplia franja de valores de los usuarios y permitan la personalización dentro de límites amplios.
Por último, Chat gpt están trabajando para mejorar la calibración del modelo, especialmente en su proceso posterior al entrenamiento. Esto nos ayudará a reducir la confianza excesiva en las predicciones del modelo y minimizar los errores.
¡Protegiendo la seguridad en GPT-4!
GPT-4 es el nuevo modelo de lenguaje de OpenAI y su seguridad es nuestra máxima prioridad. estan tomando medidas para asegurarnos de que GPT-4 esté más seguro y más alineado con los valores humanos. Pero, como sabemos que la seguridad es un desafío continuo, seguimos mejorando y trabajando en mitigaciones.
¿Cuáles son los riesgos de GPT-4 y cómo los mitigamos?
Están contratando a más de 50 expertos para probar el modelo de manera adversaria y nos han permitido probar el comportamiento del modelo en áreas de alto riesgo que requieren experiencia para evaluar. Los comentarios y datos de estos expertos se incorporaron a nuestras mitigaciones y mejoras para el modelo. También está recopilando datos adicionales para mejorar la capacidad de GPT-4 para rechazar solicitudes sobre cómo sintetizar sustancias químicas peligrosas.

¿Cómo están mejorado la seguridad de GPT-4 en comparación con GPT-3.5?
Están reduciendo la tendencia del modelo a responder a solicitudes de contenido no permitido en un 82 % y GPT-4 responde a solicitudes confidenciales de acuerdo con nuestras políticas con un 29 % más de frecuencia.
Sin embargo, todavía existen «jailbreaks» para generar contenido que viola nuestras pautas de uso. Para asegurar niveles extremadamente altos de confiabilidad, es importante complementar estas limitaciones con técnicas de seguridad en tiempo de implementación, como la supervisión de abusos.
GPT-4 tiene un gran potencial para influir en la sociedad de manera beneficiosa y perjudicial. Chat gpt están trabajando con investigadores externos para entender y evaluar los impactos potenciales y crear evaluaciones de capacidades peligrosas que pueden surgir en sistemas futuros. Estén atentos a más información sobre los posibles impactos sociales y económicos de GPT-4 y otros sistemas de IA.
¡Entrenando a GPT-4 para ser el mejor modelo de lenguaje del mundo!
¿Alguna vez te has preguntado cómo funciona el proceso de entrenamiento de los modelos de lenguaje como GPT-4? ¡Aquí te lo explicamos!
El modelo base de GPT-4 se entrena para predecir la siguiente palabra en un documento, utilizando una gran cantidad de datos disponibles públicamente y datos bajo licencia. Estos datos incluyen todo tipo de información, desde soluciones matemáticas hasta diferentes ideologías y puntos de vista. ¡Así es como el modelo aprende a hablar como un verdadero humano!
Sin embargo, cuando se trata de responder preguntas, el modelo puede ofrecer respuestas que no están en línea con lo que el usuario está buscando. ¡Aquí es donde entra en juego el aprendizaje de refuerzo con retroalimentación humana (RLHF)!
Con RLHF, ajustamos el comportamiento del modelo para asegurarnos de que sus respuestas estén en línea con lo que el usuario está buscando. ¡Es como entrenar a un perro para que haga trucos!
¡Pero eso no es todo! El éxito del modelo también depende de la ingeniería rápida posterior al entrenamiento. Después del entrenamiento, el modelo requiere una rápida ingeniería para asegurarse de que pueda responder a las preguntas que se le hacen. ¡Es como armar un rompecabezas en tiempo récord!
Es importante destacar que las capacidades del modelo provienen en gran medida del proceso de entrenamiento previo, mientras que RLHF solo ayuda a alinear el comportamiento del modelo con las necesidades del usuario. ¡Así es cómo GPT-4 se convierte en el modelo de lenguaje más impresionante del mundo!
Construyendo una pila de aprendizaje profundo, escalable y predecible para GPT-4
GPT-4 es un proyecto ambicioso que busca alcanzar nuevos niveles de escalabilidad y previsibilidad en el aprendizaje automático. Para lograr esto, están enfocado sus esfuerzos en desarrollar una pila de aprendizaje profundo que sea altamente escalable y predecible en múltiples escalas. En este sentido, están desarrollando infraestructura y optimizaciones que tienen un comportamiento muy predecible, lo que nos permite ejecutar entrenamientos de gran envergadura sin la necesidad de realizar ajustes extensos específicos del modelo.
Predicción de la pérdida final con precisión y desarrollo de metodologías interpretables
Han logrado predecir con precisión la pérdida final de GPT-4 mediante la extrapolación de modelos entrenados con la misma metodología, pero utilizando 10,000 veces menos cómputo. Esto nos permite desarrollar una metodología para predecir métricas más interpretables, como la tasa de aprobación en un subconjunto del conjunto de datos de HumanEval, de la cual también Están logrando predecir con éxito.
Desafíos en la predicción de futuras capacidades de aprendizaje automático
Aunque están logrando predecir con precisión muchas métricas importantes, todavía hay algunas capacidades que son difíciles de predecir. Por ejemplo, el Premio de Escalamiento Inverso fue una competencia para encontrar una métrica que empeora a medida que aumenta el cálculo del modelo, y la Negligencia Retrospectiva fue uno de los ganadores. A pesar de esto, Chat gpt están comprometidos en ampliar sus esfuerzos para desarrollar métodos que brinden a la sociedad una mejor orientación sobre qué esperar de los sistemas futuros de aprendizaje automático, y esperamos que esto se convierta en un objetivo común en el campo.
¡Evaluaciones OpenAI para evaluar modelos de manera efectiva y personalizada!
En OpenAI, Chat gpt están emocionados de anunciar el lanzamiento de OpenAI Evals, su marco de software diseñado para crear y ejecutar puntos de referencia que evalúan modelos como GPT-4. Este marco permite la inspección del rendimiento muestra por muestra, lo que nos ayuda a guiar el desarrollo de sus modelos y también puede ser utilizado por sus usuarios para realizar un seguimiento del rendimiento en todas las versiones del modelo.
Lo mejor de todo es que el código es todo de código abierto, lo que significa que Evals admite la escritura de nuevas clases para implementar una lógica de evaluación personalizada. Para ayudar a los usuarios a comenzar, están incluido plantillas que han sido útiles para nosotros, incluyendo una plantilla para «evaluaciones calificadas por modelos», lo que significa que GPT-4 es sorprendentemente capaz de verificar su propio trabajo.
También están creando una evaluación de acertijos lógicos que contiene diez indicaciones en las que falla GPT-4. Además, Evals es compatible con la implementación de los puntos de referencia existentes y estna incluido varios cuadernos que implementan puntos de referencia académicos y algunas variaciones de integración CoQA.
Esperamos que Evals se convierta en un vehículo para compartir puntos de referencia de crowdsourcing y represente un conjunto máximo de modos de falla y tareas difíciles. Por lo tanto, invitamos a todos a usar Evals para probar sus modelos y enviar los ejemplos más interesantes. Creemos que Evals será una parte integral del proceso para usar y construir sobre sus modelos, y esperamos con ansias las contribuciones directas, preguntas y comentarios. ¡Únete a la emoción y haz que tu evaluación sea la próxima en la lista!
¡Bienvenidos a ChatGPT Plus, la nueva y emocionante oferta de ChatGPT!
Obtén acceso limitado al poderoso GPT-4 en chat.openai.com con tu suscripción a ChatGPT Plus. Ajustaremos el límite de uso según la demanda y el rendimiento del sistema para garantizar una experiencia de alta calidad. Aunque la capacidad será limitada en un principio, Chat gpt están trabajando arduamente para optimizar y expandir la oferta en los próximos meses.
¿Necesitas un mayor volumen de uso de GPT-4?
No te preocupes, Chat gpt están considerando introducir un nuevo nivel de suscripción para satisfacer tus necesidades. Y si aún no estás listo para suscribirte, también ofreceremos una cierta cantidad de consultas gratuitas para que puedas probar GPT-4.
Si eres desarrollador, puedes obtener acceso a la API de GPT-4 a través de nuestra lista de espera. Chat gpt están escalando gradualmente para equilibrar la capacidad con la demanda, así que regístrate ahora para obtener tu invitación.
Los investigadores que estudian el impacto social de la IA o los problemas de alineación de la IA también pueden solicitar acceso subsidiado a través de su Programa de Acceso para Investigadores.
Con GPT-4, puedes realizar solicitudes de solo texto al modelo y esperar resultados precisos y confiables. Aunque las entradas de imagen aún están en alfa limitado, Chat gpt están trabajando arduamente para mejorar la funcionalidad.
GPT-4 tiene una longitud de contexto de 8192 tokens, pero también ofrecemos acceso limitado a nuestra versión de contexto 32,768 (alrededor de 50 páginas de texto) con gpt-4-32k. El precio es asequible a $0.06 por 1K tokens de solicitud y $0.12 por 1K tokens de finalización.
Chat gpt están comprometidos a mejorar continuamente la calidad del modelo para contextos largos y Chat gpt están ansiosos por recibir tus comentarios sobre cómo funciona para tu caso de uso. Chat gpt estan procesando solicitudes para los motores 8K y 32K a diferentes tarifas según la capacidad, por lo que puedes recibir acceso a ellos en diferentes momentos.
En resumen, Chat gpt están emocionados de ofrecer GPT-4 como una herramienta valiosa para mejorar la vida de las personas al potenciar muchas aplicaciones. ¡Únete a nosotros para construir, explorar y contribuir al modelo colectivamente!
¿Estás buscando mejorar tu chatbot y no sabes cómo hacerlo? Entonces, estás en el lugar correcto. En este artículo, te proporcionaremos más de 150 prompts gratis para chatbots que te ayudarán a mejorar la experiencia de usuario de tus clientes. ¡Sigue leyendo para descubrir cómo puedes llevar tu chatbot al siguiente nivel!