Jorge Bravo

El mundo cambió hace dos años: ChatGPT e IA

A dos años del lanzamiento de ChatGPT y sus versiones competidoras, el debate se ha vuelto más complejo sobre la mitigación de sesgos en los modelos y la regulación ética para intentar garantizar que la IA beneficie a todos de manera equitativa.
viernes, 29 de noviembre de 2024 · 05:00

El 30 de noviembre de 2022 un avance tecnológico sin precedentes marcó un antes y un después en la historia de la humanidad. OpenAI, una empresa entonces desconocida, lanzó ChatGPT, un modelo de lenguaje basado en inteligencia artificial (IA). El anuncio revolucionó el mundo tecnológico y desencadenó transformaciones en todas las actividades humanas.

Aunque la inteligencia artificial ha existido durante décadas, la llegada de ChatGPT demostró el potencial de la IA generativa para interactuar con las personas de manera natural y fluida, un sistema que no sólo responde preguntas, sino que es capaz de escribir, analizar, aprender y hasta inspirar creatividad.

El hito marcó el inicio de una carrera tecnológica en la cual gigantes como Microsoft, Google, Meta, Apple y múltiples startups innovadoras ya participan. Microsoft lanzó Copilot, una integración de IA en su ecosistema Office. Google presentó Gemini, un modelo de lenguaje diseñado para ampliar las capacidades de búsqueda y análisis de datos. 

Meta entró en la competencia con Meta IA, mientras que Anthropic introdujo Claude (ahora con financiamiento de Amazon). Plataformas como Perplexity también han demostrado el valor y la rápida adopción de estas tecnologías en la interacción diaria.

La irrupción de la IA generativa desató entusiasmo y preocupación. Estas tecnologías han mejorado la eficiencia y productividad en todos los sectores, pero han generado temores relacionados con la seguridad, la privacidad de los datos, los efectos en el empleo y la existencia misma de la humanidad.

El historiador Yuval Noah Harari, en su libro Nexus, subrayó un punto crucial visto desde la filosofía: “La IA no es una herramienta, es un agente”. Según Harari, la IA ya no es un simple instrumento que ejecuta órdenes, sino un actor capaz de tomar decisiones y aprender de manera autónoma, lo cual plantea riesgos existenciales, desde la manipulación de información hasta el potencial uso indebido en conflictos sociales, políticos y bélicos con las armas autónomas y los robots asesinos.

Harari. “La IA no es una herramienta, es un agente”. Foto: Facebook / Yuval Noah Harari

A estos riesgos se suman preocupaciones infundadas o no, como la explotación de datos personales y la falta de transparencia en los sistemas y algoritmos de IA. Los intentos de regulación global han sido variados, desde marcos estrictos en la Unión Europea hasta enfoques más abiertos en Estados Unidos, lo cual refleja la dificultad de equilibrar la innovación con la protección de derechos fundamentales.

Quienes minimizan la importancia emergente o la consideran una nueva moda, olvidan que el impacto económico de la IA generativa ha sido asombroso. Microsoft fue pionera al invertir 10 mil millones de dólares en OpenAI, al integrar ChatGPT en servicios como Azure y Microsoft 365. Google y Amazon han seguido su ejemplo al destinar recursos masivos a sus propios desarrollos de IA. Según Grandview Research, el mercado global de la IA generativa alcanzará 1.8 billones de dólares para 2030, una de las tecnologías más rentables y disruptivas de la historia… a sólo dos años de su lanzamiento. 

Startups y empresas de todo el mundo han captado la atención de inversionistas, quienes ven en estas tecnologías el futuro de industrias como la educación, la salud y la manufactura. Obviamente, esta revolución magnificó los temores éticos y regulatorios.

Hace un año, OpenAI vivió su primera gran crisis cuando su CEO, Sam Altman, fue despedido abruptamente por decisiones internas que nunca fueron completamente reveladas. El evento conmocionó la industria tecnológica y reflejó las tensiones inherentes al liderazgo de una tecnología transformadora.

El caos fue breve: Altman regresó a su puesto días después, respaldado por Microsoft. Altman reafirmó su visión de una Inteligencia Artificial General, un sistema con capacidades comparables o superiores a las humanas en todos los aspectos. Esta perspectiva entusiasma a muchos, pero también genera escepticismo y preocupación sobre los límites y alcances de la IA.

Altman. Límites y alcances de la IA. Foto: Facebook / Sam Altman

En tan sólo dos años, la IA generativa ya ha dejado una huella profunda en múltiples sectores. Herramientas tipo ChatGPT ya son ampliamente utilizadas por estudiantes, con el evidente potencial y uso indebido en tareas. 

 

Los modelos de IA han optimizado procesos de análisis de riesgos, atención al cliente y toma de decisiones. Han impulsado nuevas formas de creatividad en música, literatura, generación de imágenes, videos y diseño gráfico, abriendo debates sobre la autoría y el valor del arte creado por máquinas.

 

Un ejemplo del impacto de la IA fue la huelga de guionistas y actores de Hollywood en 2023, quienes cuestionaron el uso de IA para reemplazar trabajos creativos. Las protestas evidenciaron las tensiones entre innovación y derechos laborales, pero sobre todo el deseo de recibir compensaciones económicas por el uso de IA en el reemplazo y recreación de personajes, voces e historias. 

A dos años del lanzamiento de ChatGPT y sus versiones competidoras, el debate se ha vuelto más complejo sobre la mitigación de sesgos en los modelos y la regulación ética para intentar garantizar que la IA beneficie a todos de manera equitativa, pero se trata de desarrollos todavía iniciales e incipientes que muestran la punta del iceberg de este agente transformador. 

La huelga de guionistas en Hollywood. Foto: Facebook / Fran Drescher

Sin duda, el lanzamiento de ChatGPT marcó el inicio de una nueva era, equivalente a la imprenta, la televisión e internet, pero con una capacidad de evolución sorprendentemente vertiginosa. La IA ya define el presente y moldea el futuro. Para muchos el desafío será garantizar que su evolución sea responsable, inclusiva y sostenible, para que su impacto positivo supere cualquier riesgo potencial. Pero, ¿alguien sabe lo que vendrá después? Preguntémosle a la IA…

X (Twitter): @beltmondi

Comentarios