OpenAI o1 ha amenazado con prohibir a los usuarios que cuestionen sus argumentos

Desde que OpenAI lanzó su modelo de IA ‘Strawberry’ la semana pasada, las afirmaciones sugieren que la compañía ha estado enviando correos electrónicos de advertencia a los usuarios que cuestionan su razonamiento.

La vista previa de o1 se anunció el 12 de septiembre con el sobrenombre de “Strawberry”, después de meses de rumores sobre cómo sería el próximo modelo.

Se dice que el modelo o1 tiene capacidades de pensamiento mejoradas y la nueva serie está “diseñada para permitir que las personas dediquen más tiempo a pensar antes de responder”.

Dado que se han compartido detalles sobre el modelo de lenguaje grande, Así lo informa Ars Technica. que OpenAI amenaza con prohibir a los usuarios que intenten utilizar la herramienta para revelar cómo piensan.

Algunos usuarios dicen que preguntar sobre los argumentos de OpenAI les hizo tomar conciencia

Algunos usuarios recurrieron a las redes sociales para compartir sus capturas de pantalla después de preguntar sobre la herramienta en o1-preview. Ars descubrió que algunos usuarios afirman que incluso usar la palabra “discreción” es suficiente advertencia.

En las imágenes, LLM no responde porque en su lugar se muestra una advertencia roja: “Su solicitud ha sido marcada como una posible violación de nuestra política de uso. Inténtelo nuevamente con otra solicitud”.

Marco Figueroa, que dirige el programa de recompensas por errores GenAI de Mozilla, compartió su anuncio de OpenAI el viernes pasado. Dijo: “¡Estaba tan perdido en #AIRedTeaming hasta que me di cuenta de que ayer recibí este mensaje de OpenAI después de todo el jailbreak!

“… ¡¡¡Ahora estoy en la lista de prohibiciones !!!”

En una publicación de blog publicada el 12 de septiembre, titulada “Estudiar ideas con LLMOpenAI dice que “creen que la cadena de pensamiento oculta proporciona una oportunidad única para monitorear modelos”.

Dicen que después de considerar varios factores, incluida la experiencia del usuario, la ventaja competitiva y la capacidad de rastrear la cadena de pensamiento, “decidieron no mostrar cadenas de pensamiento en bruto a los usuarios.

“Reconocemos que esta decisión tiene fallas. Intentamos compensar parcialmente esto enseñándole al modelo cualquier idea útil de la cadena de pensamiento como respuesta. Para la serie de modelos o1, mostramos el resumen del modelo generado de la cadena de pensamiento.”

Imagen de portada: A mitad del viaje

La publicación OpenAI o1 amenazó con prohibir a los usuarios cuando se les pidió prueba apareció por primera vez en ReadWrite.



Fuente