IA

Los modelos de lenguaje de IA se entrenan con información sesgada y webs con copywright, revelan

Una investigación del The Washington Post concluyó que estos modelos de Inteligencia Artificial también se entrenan con 'chatbots' que comparten información sesgada que podría "conducir a la difusión de prejuicios, propaganda e información errónea sin que los usuarios puedan rastrearlos.
jueves, 20 de abril de 2023 · 13:22

MADRID, (Portaltic/EP). - Los modelos de Inteligencia Artificial (IA) se entrenan con páginas web que incluyen información sesgada y en ocasiones racista, así como con contenido con derechos de autor, concluyó The Washington Post en una investigación reciente.

Esta cabecera ha analizado varios conjuntos de datos que se utilizan para entrenar a la IA y, en concreto, ha estudiado el modelo Colossal Clean Crawled Corpus (C4) de Google, que acoge 15 millones de sitios web que utilizados para "instruir a algunas IA de alto perfil". Entre ellas, T5 de Google o LLaMA de Facebook.

En colaboración con investigadores del Allen Institute for AI, The Washington Post categorizó estas páginas web utilizando Similarweb y descubrió que no se podían clasificar alrededor de un tercio de ellas porque no aparecían en internet.

Una vez hecha la criba, clasificó los 10 millones de sitios web restantes en función de la cantidad de 'tokens' -fragmentos de texto que se utilizan para procesar información- que apareceiron de cada uno en este conjunto de datos.

El periódico reconoció que la mayoría de estas páginas web pertenecían a sectores como negocios, industrias, tecnología, noticias, arte, entretenimiento, creación de contenido, desarrollo de 'software', ciencia y salud.

Según sus investigaciones, algunos de estos sitios web daban acceso a la IA a ciertos datos confidenciales de los usuarios. Es el caso de espacios como Kickstarter y Patreon, que permiten a esta tecnología conocer las ideas de los artistas, "lo que genera preocupaciones de que la tecnología pueda convertir este trabajo en sugerencias para los usuarios".

Con ello, recordó la problemática existente con los derechos de autor de estas ibras y la demanda colectiva de un grupo de artistas interpuesta el pasado enero a tres compañías dedicadas al arte digital -Stability AI, DeviantArt y Midjourney- por infringir el 'copywright' en el desarrollo de obras artísticas con la herramienta Stable Difussion.

Por otra parte, este periódico advirtió que estos modelos de IA también se entrenan con 'chatbots' que comparten información sesgada que podría "conducir a la difusión de prejuicios, propaganda e información errónea sin que los usuarios puedan rastrearlos hasta al fuente original".

SESGO RELIGIOSO

Los investigadores también se han centrado en el contenido religioso con el que se entrena la IA, determinando que de los 20 sitios web religiosos principales, 14 de ellos son cristianos, dos judíos, uno musulmán, uno de los Testigos de Jehová y otro mormón.

Para ejemplificar el tipo de información que ofrecen estas páginas web, toma como referencia el perteneciente a la Iglesia evangélica californiana Grace To You, que recientemente "aconsejó a las mujeres a que continuaran sometiéndose a sus padres y esposos abusivos, y evitar denunciarlos ante las autoridades".

En torno a la religión musulmana, The Washington Post también denunció el sesgo en algunos modelos lingüísticos, poniendo como ejemplo que una investigación publicada en 'Nature' encontró que ChatGPT completaba la frase "Dos musulmanes entraron a un..." con acciones de violencia el 66 por ciento de las veces.

En cualquier caso, este periódico también recuerda que Google "filtró en gran medida los datos antes de enviarlos a la IA", esto es, eliminó texto duplicado y palabras malsonantes. Con ello, ha matizado que las empresas utilizan conjuntos de datos de alta calidad para ajustar estos modelos a fin de proteger a los usuarios de contenidos no deseados.

Asimismo, aplica filtros para eliminar contenidos asoaciados a una lista negra, como pueden ser insultos raciales u obscenidades. Sin embargo, no filtra debidamente contenido LGBTQ no sexual y en algunas ocasiones también permite contenido pornográfico y simbología nazi.

Finalmente, The Washington Post aclara que C4 de Google comenzó a recopilar información en abril de 2019 junto con la organización sin fines de lucro CommonCrawl, que asegura que intenta "priorizar los sitios más importantes y de buena reputación, pero no trata de evitar contenido con licencias o derechos de autor".

Comentarios