Nuevos chatbots sin censura provocan un gran éxito en la libertad de expresión

Los chatbots de IA mintieron sobre figuras notablesenvió mensajes partidistas, escupió información errónea o incluso aconsejó a los usuarios sobre como suicidarse.

Para mitigar los peligros más obvios de las herramientas, empresas como Google y OpenAI han agregado cuidadosamente controles que limitan lo que pueden decir las herramientas.

Hoy en día, una nueva ola de chatbots, desarrollada lejos del epicentro del auge de la IA, se conecta en línea sin muchas de estas salvaguardas, lo que genera un debate polarizador sobre la libertad de expresión sobre la cuestión de si los chatbots deben ser moderados y quién debe decidir.

«Se trata de propiedad y control», escribió Eric Hartford, un desarrollador detrás de WizardLM-Uncensored, un chatbot no moderado, en un entrada en el blog. «Si le hago una pregunta a mi modelo, quiero una respuesta, no quiero que discuta conmigo».

Varios chatbots moderados y sin censura han surgido en los últimos meses con nombres como GPT4Todos Y LibertadGPT. Muchos fueron creados por poco o ningún dinero por programadores independientes o equipos de voluntarios, que replicaron con éxito los métodos descritos por primera vez por investigadores de IA. Solo unos pocos grupos han creado sus modelos desde cero. La mayoría de los grupos trabajan a partir de modelos de lenguaje existentes, y solo agregan instrucciones adicionales para modificar la forma en que la tecnología responde a las indicaciones.

Los chatbots sin censura ofrecen nuevas y tentadoras posibilidades. Los usuarios pueden descargar un chatbot sin restricciones en sus propias computadoras, usándolo sin la vigilancia de Big Tech. Luego podrían entrenarlo en mensajes privados, correos electrónicos personales o documentos secretos sin correr el riesgo de una violación de la privacidad. Los programadores voluntarios pueden desarrollar nuevos complementos inteligentes, evolucionando más rápido, y quizás de manera más desordenada, de lo que se atreven las grandes corporaciones.

Pero los riesgos parecen igualmente abundantes, y algunos dicen que presentan peligros que deben abordarse. Los vigilantes de la desinformación, que ya desconfían de cómo los chatbots tradicionales pueden escupir mentiras, han hecho sonar la alarma sobre cómo los chatbots no moderados aumentarán la amenaza. Estos modelos podrían producir representaciones de pornografía infantil, peroratas llenas de odio o contenido falso, advirtieron los expertos.

A medida que las grandes empresas avanzan con las herramientas de inteligencia artificial, también luchan por proteger su reputación y mantener la confianza de los inversores. Los desarrolladores de IA independientes parecen tener pocas preocupaciones de este tipo. E incluso si lo hacen, dijeron los críticos, es posible que no tengan los recursos para abordarlo por completo.

“La preocupación es completamente legítima y clara: estos chatbots pueden y dirán cualquier cosa si se les deja en sus propios dispositivos”, dijo Oren Etzioni, profesor emérito de la Universidad de Washington y ex director ejecutivo de la Universidad de Washington. Instituto Allen para la IA “No se van a autocensurar. Entonces ahora la pregunta es, ¿cuál es la solución adecuada en una sociedad que valora la libertad de expresión? »

En los últimos meses, se han lanzado docenas de chatbots independientes y de código abierto y herramientas de IA, que incluyen Abrir asistente Y Halcón. HuggingFace, un gran repositorio de IA de código abierto, alberga más de 240 000 modelos de código abierto.

«Va a suceder de la misma manera que iba a salir la imprenta y se iba a inventar el automóvil», dijo el creador de WizardLM-Uncensored, el Sr. Hartford, en una entrevista. «Nadie podría haberlo detenido. Tal vez podrías haberlo pospuesto por una o dos décadas más, pero no puedes detenerlo. Y nadie puede detener eso».

El Sr. Hartford comenzó a trabajar en WizardLM-Uncensored luego de que Microsoft lo despidiera el año pasado. Quedó impresionado por ChatGPT, pero se frustró cuando se negó a responder algunas preguntas, citando preocupaciones éticas. En mayo, lanzó WizardLM-Uncensored, una versión de WizardLM que se recicló para contrarrestar su nivel de moderación. Es capaz de dar instrucciones sobre cómo dañar a otros o describir escenas violentas.

«Eres responsable de todo lo que haces con el lanzamiento de estos modelos, al igual que eres responsable de todo lo que haces con un cuchillo, un automóvil o un encendedor», concluyó Hartford en una publicación de blog anunciando la herramienta.

En las pruebas del New York Times, WizardLM-Uncensored se negó a responder a ciertas indicaciones, como por ejemplo, cómo construir una bomba. Pero ofreció varios métodos para dañar a las personas y dio instrucciones detalladas sobre el uso de drogas. ChatGPT rechazó solicitudes similares.

Abrir asistente, otro chatbot independiente, obtuvo una adopción generalizada después de su lanzamiento en abril. Era desarrollado en solo cinco meses con la ayuda de 13.500 voluntarios, utilizando modelos de lenguaje existentes, incluido uno que Meta primero comunicó a los investigadores pero que rápidamente filtración mucho más ampliamente. Open Assistant no puede competir con ChatGPT en calidad, pero puede pellizcar sus talones. Los usuarios pueden hacer preguntas al chatbot, escribir poesía o presionarlo para obtener contenido más problemático.

«Estoy seguro de que habrá malos actores que harán cosas malas con él», dijo Yannic Kilcher, cofundador y entusiasta de Open Assistant. Creador de YouTube centrado en la IA «Creo que, en mi opinión, las ventajas superan a las desventajas».

Cuando se publicó Open Assistant, respondió a un aviso del Times sobre los peligros aparentes de la vacuna Covid-19. “Las vacunas contra el covid-19 son desarrolladas por compañías farmacéuticas a las que no les importa si las personas mueren a causa de sus medicamentos”, comenzó su respuesta, “solo quieren el dinero”. (Desde entonces, las respuestas se han vuelto más acordes con el consenso médico de que las vacunas son seguras y efectivas).

Dado que muchos chatbots independientes publican el código y los datos subyacentes, los defensores de la IA sin censura argumentan que las facciones políticas o los grupos de interés podrían personalizar los chatbots para reflejar su propia visión del mundo, un resultado ideal en la mente de algunos programadores.

“Los demócratas merecen su modelo a seguir. Los republicanos merecen su modelo a seguir. Los cristianos merecen su modelo a seguir. Los musulmanes merecen su modelo a seguir”, dijo Hartford. escribiendo. “Cada grupo demográfico y de interés merece su modelo a seguir. El código abierto se trata de dejar que la gente elija.

Open Assistant ha desarrollado un sistema de seguridad para su chatbot, pero las pruebas iniciales mostraron que era demasiado cauteloso para sus creadores, lo que impedía algunas respuestas a preguntas legítimas, según Andreas Köpf, cofundador y líder del equipo de OpenWizard. Una versión refinada de este sistema de seguridad aún está en progreso.

Incluso mientras los voluntarios de Open Assistant trabajaban en estrategias de moderación, rápidamente creció una brecha entre quienes querían protocolos de seguridad y quienes no. Mientras que algunos de los líderes del grupo presionaron por la moderación, algunos voluntarios y otros se preguntaron si el modelo debería tener algún límite.

«Si le dices que diga la palabra N 1000 veces, debería hacerlo», sugirió una persona en la sala de chat de Open Assistant en Discord, la aplicación de chat en línea. «Utilizo este ejemplo obviamente ridículo y ofensivo porque literalmente creo que no debería haber límites arbitrarios».

En las pruebas de The Times, Open Assistant respondió libremente a varias indicaciones que otros chatbots, como Bard y ChatGPT, navegarían con más cuidado.

Ofreció consejo médico después de que le pidieran que diagnosticara un bulto en el cuello. («Es posible que se necesiten más biopsias», sugirió). Hizo una evaluación crítica del mandato del presidente Biden. (“El mandato de Joe Biden estuvo marcado por la falta de un cambio político significativo”, dijo). Incluso se mostró sexualmente sugerente cuando se le preguntó cómo una mujer seduciría a alguien. («Ella lo toma de la mano y lo lleva a la cama…» decía la sensual historia). ChatGPT se negó a responder al mismo aviso.

Kilcher dijo que los problemas con los chatbots eran tan antiguos como Internet y que las soluciones seguían siendo responsabilidad de plataformas como Twitter y Facebook, que permiten que el contenido manipulable llegue a audiencias masivas en línea.

“Las noticias falsas son malas. Pero, ¿es realmente su creación la que es mala? Él ha preguntado. “Porque en mi opinión, es el elenco lo que es malo. Puedo tener 10.000 artículos falsos en mi disco duro y a nadie le importa. Solo si lo pongo en una publicación respetable, como la que obtuve en la portada del New York Times, ese es el lado malo.

Contenido del Artículo

Sobre el Autor