OpenAI tiene la tecnología para marcar con agua el texto de ChatGPT, pero no lo publicará

imágenes falsas

De acuerdo a El periodico de Wall StreetExiste un conflicto interno en OpenAI sobre si se debe o no lanzar una herramienta de marca de agua que permita a las personas probar el texto para ver si fue generado por ChatGPT o no.

Para implementar la herramienta, OpenAI haría ajustes a ChatGPT que harían que dejara un rastro en el texto que genera, que puede ser detectado por una herramienta especial. La marca de agua sería indetectable para los lectores humanos sin la herramienta, y las pruebas internas de la empresa han demostrado que no afecta negativamente la calidad de los resultados. El detector sería preciso el 99,9 por ciento del tiempo. Es importante señalar que la marca de agua sería un patrón en el texto en sí, lo que significa que se conservaría si el usuario copia y pega el texto o incluso si le hace modificaciones modestas.

Algunos empleados de OpenAI han hecho campaña a favor del lanzamiento de la herramienta, pero otros creen que sería una decisión equivocada y citan algunos problemas específicos.

El primero de ellos es el hecho de que, incluso con una precisión del 99,9 por ciento, el detector de marcas de agua seguiría equivocándose algunas veces, considerando la frecuencia con la que se utiliza ChatGPT.

Entre quienes han mostrado mayor interés en utilizar las herramientas se encuentran los profesores y catedráticos, que han visto un rápido aumento de los trabajos escolares y otras tareas generados por ChatGPT. Pero el argumento de OpenAI es el siguiente: una precisión del 99,9 por ciento parece mucho, pero imaginemos que uno entre 1.000 trabajos universitarios fuera etiquetado falsamente como trampa. Eso podría llevar a algunas consecuencias desafortunadas para estudiantes inocentes.

Además, OpenAI dice que el lanzamiento de la herramienta podría estigmatizar a los hablantes no nativos de inglés que usan ChatGPT para traducir o mejorar su escritura, lo que la compañía sostiene que es un uso legítimo de la herramienta.

Finalmente, Una publicación de blog de OpenAI Se aclaró que es relativamente fácil para los actores maliciosos eludir la marca de agua en su forma actual. Pasar la salida de ChatGPT por otro generador de texto LLM podría lograrlo, al igual que pedirle a ChatGPT que inserte caracteres especiales en toda la salida y luego eliminarlos manualmente.

Hay un problema que OpenAI no mencionó en su publicación de blog, pero sí apareció en el artículo del Wall Street Journal: una encuesta a usuarios de ChatGPT mostró que hasta el 30 por ciento dijo que dejaría de usar ChatGPT si su salida tuviera marca de agua.

OpenAI está trabajando en la función de marca de agua y aún no la ha implementado. También está investigando soluciones alternativas que todavía están en desarrollo, como la inclusión de metadatos firmados criptográficamente en los resultados.

Esa solución sería similar a la forma en que OpenAI abordó el problema de la procedencia del contenido con el generador de imágenes DALL-E 3. La empresa incluye metadatos C2PA para ayudar a las personas a identificar cuándo y cómo se modificaron las imágenes con DALL-E.

OpenAI lanzó anteriormente y respaldó una herramienta de detección de texto de IA. No se centraba solo en ChatGPT, sino también en detectar si se había utilizado alguna herramienta de IA para generar texto. Sin embargo, interrumpido porque era altamente inexacto y propenso a falsos positivos, lo que lo hacía prácticamente inútil.

Fuente