“PCWorld está en un viaje para profundizar en información que resuene en los lectores y cree un tapiz multifacético para transmitir un paisaje de profundo enriquecimiento”. Esas tonterías pueden parecer generadas por IA, pero, de hecho, fueron escritas por un humano carnoso: un servidor.
La verdad es que es difícil saber si un fragmento de texto en particular es generado por IA o realmente escrito por un humano. Google espera que sea más fácil de detectar mediante el código abierto de su nueva herramienta de software.
Google lo llama SynthIDun método que “marca de agua e identifica el contenido generado por IA”. Anteriormente limitado a los sistemas de generación de imágenes y lenguaje propio de Google, la compañía ha anunciado que SynthID se lanzará como código fuente abierto que también se puede aplicar a otras configuraciones de generación de texto de IA. (Si tienes más conocimientos de ciencia ficción que yo, puedes consultar todos los detalles en el prestigioso Naturaleza diario.)
Pero en términos sencillos, al menos en la medida en que este profano realmente pueda entenderlos, SynthID oculta patrones específicos en imágenes y texto que generalmente son demasiado sutiles para que los humanos los detecten, con un esquema para detectarlos cuando se prueban.
SynthID puede “codificar una marca de agua en texto generado por IA de una manera que le ayude a determinar si el texto se generó a partir de su LLM sin afectar el funcionamiento del LLM subyacente ni afectar negativamente la calidad de generación”, según una publicación en el aprendizaje automático de código abierto. base de datos abrazando la cara.
La buena noticia es que Google dice que estas marcas de agua se pueden integrar con prácticamente cualquier herramienta de generación de texto con IA. La mala noticia es que detectar las marcas de agua todavía no es algo que se pueda concretar.
Si bien las marcas de agua SynthID pueden sobrevivir a algunos de los trucos básicos utilizados para eludir la detección automática, como el intercambio de palabras “no lo llames plagio”, solo pueden indicar la presencia de marcas de agua con distintos grados de certeza, y esa certeza va muy lejos. cuando se aplica a “respuestas fácticas”, algunos de los usos más importantes y problemáticos del texto generativo, y cuando grandes lotes de texto pasan por traducción automática u otro tipo de reescritura.
“El texto SynthID no está diseñado para impedir directamente que adversarios motivados causen daño”, dice Google. (Y, francamente, creo que incluso si Google tenía hecho una panacea contra la información errónea generada por LLM, dudaría en enmarcarla como tal por razones de responsabilidad). También requiere que el sistema de marcas de agua se integre en la herramienta de generación de texto. antes en realidad se usa, por lo que no hay nada que impida que alguien simplemente elija no hacerlo, como suelen hacer los actores estatales maliciosos o incluso herramientas más explícitamente “gratuitas” como Grok de xAI.
Y debo señalar que Google no está siendo exactamente sociable aquí. Si bien la compañía está impulsando sus propias herramientas de inteligencia artificial tanto para los consumidores como para las empresas, su producto principal de búsqueda está en peligro debido a una red que parece estar llenándose rápidamente con texto e imágenes generados automáticamente. La competencia de Google, como OpenAI, podría optar por no utilizar este tipo de herramientas simplemente como una cuestión de hacer negocios, con la esperanza de crear un estándar propio para impulsar el mercado hacia sus propios productos.