chatbot
Google lanzó su chatbot Bard consciente de que ofrecía información de "baja calidad": Bloomberg
Trabajadores de la empresa y exempleados denunciaron la falta de prioridad que da la compañía a la ética de la Inteligencia Artificial, según publicó Bloomberg.MADRID, (Portaltic/EP) - Empleados de Google afirman que el 'chatbot' Bard es un "mentiroso patológico" y señalan que a pesar de la información de "baja calidad" que ofrece y de la falta de ética de la Inteligencia Artificial (IA) que esto implica, Google lanzó Bard igualmente para competir contra sus rivales en el sector, ChatGPT de OpenAI y Microsoft con Bing.
El gigante tecnológico presentó Bard, su 'chatbot' -basado en la tecnología de conversación Languaje Model for Dialogue Applications (LaMDA)- a principios de febrero. Inicialmente, esta IA se puso a disposición de los probadores de confianza de Google y sus empleados, posteriormente, se amplió el acceso a los Pixel Superfans.
Sin embargo, una serie de trabajadores actuales de la empresa y exempleados aseguraron que la información que utiliza Bard es de "baja calidad" y denunciaron la falta de prioridad que da la compañía a la ética de la IA, según ha publicado Bloomberg.
Con ello, estas fuentes anónimas han insistido en que Google decidió lanzar Bard ignorando estas deficiencias solo para asegurarse su competencia en el sector de la IA con sus rivales Open AI con ChatGPT y Microsoft con su motor de búsqueda, Bing, y su navegador, Edge.
En este sentido, los trabajadores tildan al 'chatbot' de "mentiroso patológico" y "digno de vergüenza". Además, señalan algunos casos de respuestas peligrosas de la IA, entre las que se encuentran sugerencias sobre cómo aterrizar un avión que acabaría provocando un accidente, o recomendaciones acerca de la práctica del buceo que "probablemente resultarían en lesiones graves o la muerte".
El director ejecutivo de Google, Sundar Pichai, afirmó a finales del mes de marzo que la IA se trata de un área "demasiado importante para no regularlo bien". Asimismo, indicó que, por el momento, Bard se trata de una prueba con la que querían ver "qué tipo de consultas obtendrían", siendo consicente de que "claramente" tienen modelos más capaces que implican mejoras en razonamiento y codificación.
"Era importante no poner un modelo más capaz antes de que podamos asegurarnos de que podemos manejarlo bien", añadió el directivo, al tiempo que abogó por la cautela: "No quiero que sea solo quién está allí primero, pero hacerlo bien es muy importante para nosotros", dijo.
Sin embargo, la voluntad de invertir más recursos en la evaluación de los daños potenciales de la tecnología de la IA no juega a favor de Google, que tiene buscaría seguir liderando el sector a pesar de los proyectos en los que ya están embarcadas otras compañías como Microsoft.
Según detallan los trabajadores, el grupo que trabaja en ética de la IA de Google está "desempoderado y desmoralizado", ya que se les ha indicado que no se interpongan en el camino de los planes de la empresa y que "no eliminen ninguna de las herramientas de IA generativas en desarrollo".
Asimismo, según detalla Bloomberg, en el mes de febrero un empleado trasladó algunos problemas que había identificado con Bard y solicitó que no se compartiera con los usuarios porque era "un inútil", un aspecto apoyado por muchos otros compañeros de la empresa.
Por otro lado, este medio también señala que en el mes de marzo la líder del departamento de IA de Google, Jen Gennai, anuló una evaluación de riesgos presentada por miembros del equipo que afirmaban que Bard "no estaba listo porque podría causar daño".
Por su parte, el portavoz de Google, Brian Gabriel, niega esta situación y aseguró a Bloomberg que la IA ética continúa siendo una prioridad para la compañía, así como que siguen invirtiendo en los trabajos que trabajan en la aplicación de los principios de Google en la IA.