¿Qué es la IA generativa y ChatGPT?
ChatGPT es un tipo de tecnología conocida como "IA generativa". La IA generativa es una tecnología bastante avanzada que permite a los usuarios generar nuevos contenidos -palabras, imágenes y ahora incluso vídeos- introduciendo una instrucción en un sistema que lo guía para crear un resultado específico.
ChatGPT, posiblemente el producto de IA generativa más conocido, fue desarrollado por la empresa tecnológica californiana OpenAI. Desde que OpenAI lanzó ChatGPT en noviembre de 2022, la carrera de la IA generativa ha comenzado. Desde entonces, numerosas empresas tecnológicas, como Google, Amazon y Baidu, han lanzado sus propios productos de IA generativa. Microsoft ha invertido miles de millones en OpenAI y utiliza ChatGPT en una versión generativa de su motor de búsqueda, Bing. También se dice que Elon Musk está preparando el lanzamiento de una nueva empresa centrada en la IA generativa.
Es importante señalar que, por lo general, sólo las grandes empresas o las excepcionalmente bien financiadas pueden crear estos productos debido a los importantes recursos financieros y técnicos necesarios para fabricarlos y ponerlos en marcha, incluido el acceso a cantidades masivas de datos y potencia de cálculo. Si la IA generativa es el futuro, se trata de una visión propuesta y realizada por un puñado de poderosas empresas tecnológicas e individuos, cada uno con sus propios intereses comerciales en juego. Esto plantea importantes cuestiones sobre el poder y la responsabilidad de las empresas.
¿Qué alimenta la IA generativa?
Los modelos de IA generativa se entrenan con grandes cantidades de datos. Resulta problemático cuando los datos y los procesos de entrenamiento no están a disposición del público, como es el caso de GPT4, el último producto de IA generativa de imágenes y texto de OpenAI. Sabemos que GPT3, el modelo anterior de OpenAI, se entrenó con texto extraído de un gran número de fuentes de Internet, incluidos los tablones de Reddit.
Utilizar miles de millones de imágenes y textos de Internet como datos de entrenamiento, sin un filtrado y una moderación cuidadosos, corre el riesgo de perpetuar los peores problemas relacionados con los contenidos que ya vemos en Internet: presentar opiniones como hechos, crear imágenes o vídeos falsos creíbles, reforzar prejuicios estructurales y generar contenidos nocivos y discriminatorios, por nombrar algunos.
Los estudios demuestran que los contenidos de Internet no son representativos de la realidad de la mayoría de la gente. Por ejemplo, Wikipedia sigue presentando un enorme sesgo a favor de mostrar información sobre hombres y sobre el llamado Norte Global, a pesar de los importantes esfuerzos realizados para abordar las desigualdades de contenido. Los sistemas generativos de IA entrenados con datos no representativos simplemente reproducen las desigualdades de los contenidos existentes en Internet.
Las empresas que extraen contenidos de personas sin su conocimiento o consentimiento para obtener datos de entrenamiento también tienen implicaciones obvias para la privacidad. ¿Cómo sabe si su imagen o texto se ha utilizado para entrenar un sistema de IA generativa? ¿Cómo pedir que se elimine del sistema?
¿En qué se diferencia esta tecnología de lo que ya está disponible en Internet?
Es realmente la primera vez que las aplicaciones avanzadas y creativas de la IA están al alcance de cualquiera que tenga un ordenador o un smartphone. Pero sigue habiendo un dominio masivo de la lengua inglesa en las aplicaciones de IA generativa tanto de texto como de imágenes, por lo que la accesibilidad es muy limitada en ese sentido.
Human Rights Watch lleva cinco años trabajando sobre el impacto de la IA en los derechos humanos, y la IA generativa es, en muchos sentidos, una extensión de las preocupaciones de sobra conocidas sobre la IA y la tecnología de aprendizaje automático: que existe un mayor riesgo de vigilancia, discriminación y falta de rendición de cuentas cuando las cosas van mal.
¿Cuáles son algunas de las preocupaciones en torno a la privacidad y la seguridad de los datos?
Hay que tener cuidado con lo que se introduce en las herramientas de IA generativa. Debemos asumir que todo lo que introducimos en los productos de IA generativa se utiliza en cierta medida para entrenar y "mejorar" el modelo. También puede ser visible para la empresa tecnológica propietaria o usuaria del sistema. Empresas de múltiples sectores piden ahora a su personal que se abstenga de introducir información sensible o personal en los sistemas de IA generativa.
Incluso cuando introducimos información aparentemente mundana en robots de búsqueda o chat de IA generativa, ésta podría utilizarse para construir una imagen de quiénes somos. La IA es particularmente buena detectando patrones, y lo que buscamos o tecleamos en los chatbots podría revelar con el tiempo información sensible sobre nuestra identidad o comportamiento a partir de contenidos que no consideramos naturalmente como información especialmente reveladora.
Por el momento, no disponemos de información suficiente para saber hasta qué punto se utiliza nuestra información y puede vincularse a identidades individuales. Necesitamos respuestas de las empresas tecnológicas sobre cómo van a respetar el derecho a la intimidad en relación con la IA generativa. Cabe señalar que OpenAI aumentó los controles de privacidad de ChatGPT tras la "prohibición" del producto en Italia por motivos de protección de datos. Se trata de un panorama en pleno desarrollo.
¿Son sistemas fiables?
Simplemente no podemos dar demasiada importancia a sistemas que se sabe que contienen falsedades e imprecisiones, especialmente cuando su diseño es opaco. Por ejemplo, el chatbot de Google, Bard, dio una respuesta que contenía un error factual en su lanzamiento. Basta con utilizar la búsqueda de Google para encontrar la respuesta correcta, aunque es posible que haya que filtrar las respuestas erróneas antes de encontrar la correcta. Pero con algunos sistemas de IA generativa no es fácil ver las fuentes de la información, algo que ayuda a la gente a evaluar críticamente si confiar en el resultado.
Merece la pena señalar que existen problemas de seguridad adicionales en torno a los chatbots de IA generativa que pueden hacer que parezcan autoritarios y de algún modo humanos debido a su diseño y tono conversacional. Esto puede llevar a los usuarios a confiar demasiado en ellos.
Las consecuencias son graves. Está el caso del juez de Colombia que dijo haber consultado ChatGPT mientras preparaba una sentencia. ¿Hasta qué punto puede influir esta tecnología en una decisión judicial? En Bélgica, una mujer afirma que su marido se suicidó tras interactuar con un chatbot de inteligencia artificial generativa.
Necesitamos que los creadores de tecnología y los reguladores se paren a considerar algunas de las grandes cuestiones: ¿Cómo podría utilizarse mal? Incluso con las mejores intenciones, ¿qué podría salir mal? ¿Puede causar daños y, en caso afirmativo, qué podemos hacer al respecto?
Las empresas se apresuran a sacar al mercado productos que, sencillamente, no son seguros para el uso general. Las primeras versiones de chatbots de IA generativa dieron lugar a resultados problemáticos y sesgados. Sabemos que la actual competencia en el sector fomenta una carrera a ciegas, en lugar de una carrera basada en políticas y prácticas acordes con los derechos humanos.
Las empresas tecnológicas tienen responsabilidades en materia de derechos humanos que son especialmente importantes cuando crean nuevas tecnologías poderosas y exploratorias. Tienen que demostrar claramente que están identificando y mitigando los riesgos para los derechos humanos antes del lanzamiento de cualquier producto. También tienen que rendir cuentas por cualquier daño derivado de sus productos. Para ello, los datos de formación, los valores de diseño y los procesos de moderación de contenidos deben estar abiertos a un escrutinio independiente.
Parece que la desinformación podría proliferar con esta tecnología. ¿Le preocupa?
Sí, es probable que sea un gran problema. La Inteligencia Artificial Generativa podría cambiar enormemente nuestra forma de utilizar Internet al modificar la manera en que encontramos y confiamos en la información en línea. ¿Cómo nos fiamos de lo que vemos? Con avances como los modelos texto-imagen y texto-vídeo, estamos abriendo la caja de Pandora de la fiabilidad de los contenidos de Internet. Ya tenemos un problema para saber lo que es real, y está a punto de hacerse mucho mayor. Esto puede tener consecuencias devastadoras, por ejemplo, en acontecimientos políticos como elecciones o en situaciones de conflicto y crisis.
Hay algunos chatbots de IA generativa que se hacen pasar por personajes históricos y funcionarios del gobierno. La gente podría publicar textos que, si se toman en serio, podrían utilizarse para encubrir delitos graves y violaciones de los derechos humanos.
¿Qué pasa con las personas que examinan los datos para alimentar a estos chatbots?
Construir IA implica mucho trabajo humano invisible. Alguien tiene que etiquetar los datos de entrenamiento y alguien tiene que decidir si la máquina está haciendo las cosas bien o mal. Este proceso depende de que los humanos introduzcan información, lo que significa que la tecnología inevitablemente incluye sesgos humanos.
La explotación de los trabajadores en la creación de IA es otra cuestión clave de derechos humanos. Una investigación de la revista Time mostraba cómo OpenAI subcontrataba el etiquetado de datos para ChatGPT a Sama, una empresa que empleaba a trabajadores en Kenia para trabajar en condiciones penosas, algunos pagados a menos de 2 dólares la hora por cribar datos tóxicos y sesgados.
Las empresas tecnológicas subcontratan esta mano de obra en gran medida en el Sur Global. Existe una enorme brecha entre las condiciones de trabajo en las sedes de las empresas tecnológicas estadounidenses y en los lugares que alimentan estas tecnologías. Los trabajadores que construyen la IA a menudo son testigos de las peores partes de Internet, y merecen algo mejor. Todas las empresas tienen la responsabilidad de ofrecer un salario digno y dignidad en el trabajo.
¿Qué tipo de normativa existe para controlar esta tecnología?
Las empresas tecnológicas han tratado de adelantarse a la regulación intentando autorregularse, por ejemplo redactando y adoptando principios o directrices que nominalmente cumplirían. En virtud de sus principios de IA, por ejemplo, Google ha afirmado que no lanzará productos de IA cuya finalidad contravenga los derechos humanos. Pero esperar que las empresas tecnológicas sigan sus propios principios supone confiar demasiado en el autogobierno. La IA es simplemente demasiado poderosa, y las consecuencias para los derechos son demasiado graves, como para que las empresas se regulen a sí mismas.
Todas las empresas tienen la responsabilidad de respetar las normas de derechos humanos y tomar medidas para identificar, prevenir y mitigar los riesgos para los derechos humanos que causan, a los que contribuyen o con los que están vinculadas a través de sus propias operaciones o de las operaciones en sus cadenas de valor. Estas responsabilidades están recogidas en los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos, así como en las directrices de la Organización para la Cooperación y el Desarrollo Económico. Necesitamos traducir los principios rectores de la ONU en leyes vinculantes, no sólo para la IA, sino para toda la tecnología.
En los últimos años, los legisladores se han esforzado por seguir el ritmo de los nuevos avances de la industria tecnológica, pero ahora estamos presenciando la aparición de normativas sobre IA a nivel nacional y regional. Una de las más importantes es la Ley de Inteligencia Artificial de la Unión Europea, que pasó una votación inicial la semana pasada con la propuesta de abordar los problemas de derechos de autor en la IA generativa. Pero veamos si va lo suficientemente lejos como para abordar los problemas de derechos humanos que plantea esta tecnología.
¿Cómo afecta esta tecnología a las investigaciones sobre derechos humanos?
Las organizaciones de derechos humanos desempeñan un papel importante a la hora de denunciar y cuestionar el desarrollo de las tecnologías emergentes, incluidos los productos que utilizan IA generativa.
Pero también existe una amenaza real para las investigaciones de derechos humanos con IA generativa. Los avances en esta tecnología significan que ahora es posible crear contenido creíble de forma rápida y sencilla, lo que sin duda va a crear nuevos retos para los grupos de derechos humanos que recopilan pruebas para documentar abusos y exigir responsabilidades por las injusticias. El trabajo del Laboratorio de Investigaciones Digitales de Human Rights Watch y su capacidad para comprobar y verificar contenidos va a ser cada vez más importante en un futuro de IA generativa, a medida que circule por Internet información falsa o engañosa, incluidas fotos y vídeos altamente creíbles y generados por IA.