Tecnología

Inteligencia artificial: Google lanzó su chatbot Bard sabiendo que ofrecía información de “baja calidad”

Google.

Google. / Bastian Riccardi, Unsplash

Bard era "un mentiroso patológico"; "cuando le pregunté por instrucciones para aterrizar un avión, sus consejos habrían llevado a un accidente"; "dio respuestas sobre buceo que probablemente habrían causado heridas graves o incluso la muerte". Son algunas de las respuestas de empleados de Google, citados por Bloomberg, a los que la compañía pidió que probasen su chatbot de inteligencia artificial generativa poco antes de su estreno.

Pese a estos demoledores análisis, Google lanzó de todas formas su respuesta al ChatGPT de OpenAI y, sobre todo, a Microsoft, que tanto ha invertido en esa compañía y que ha integrado su modelo de lenguaje en buena parte de sus productos.

De forma apresurada, Google organizó una presentación en la que apenas dio datos, fechas ni detalles pero que incluía una demostración de las supuestas habilidades de su herramienta que tuvo catastróficas consecuencias y costó a la firma de Silicon Valley millones de dólares en bolsa.

Bard, el chatbot de Google para competir con ChatGPT Bard, el chatbot de Google para competir con ChatGPT

Bard, el chatbot de Google para competir con ChatGPT

Con la promesa de que solucionaría esos errores, Alphabet abrió poco después el acceso anticipado y avanzó sus planes para incluir su herramienta en algunos de sus programas más populares, como Gmail y Docs (de nuevo, otra reacción a lo que estaba haciendo Microsoft).

Ya en abril, Sundar Pichai, el CEO de la matriz de Google, se permitió sumarse públicamente a la inquietud que expertos y científicos mostraban sobre la necesidad de regular esta todavía incipiente tecnología ("La inteligencia artificial es demasiado importante como para no regularla bien", dijo).

La investigación que destapa los fallos de Bard

Ahora Bloomberg publica un largo y completo reportaje en el que cita, bajo condición de anonimato, a trabajadores actuales y pasados de la empresa que aseguran que la información que utiliza Bard es de "baja calidad", al tiempo que denuncian que la ética de la IA no en absoluto una prioridad para Google.

Bard, el chatbot de Google. Bard, el chatbot de Google.

Bard, el chatbot de Google. / Mojahid Mottakin, Unsplash

Estas fuentes anónimas confirman que el gigante de Mountain View ignoró las advertencias para no quedarse atrás en la carrera con su rival de Redmond.

Según detallan los trabajadores, el grupo que trabaja en Google en la ética de la IA está "desmoralizado y mermado", ya que se les ha indicado que no se interpongan en los planes de la empresa y que "no eliminen ninguna de las herramientas de IA generativas en desarrollo".

Bloomberg añade que, en febrero, un empleado trasladó problemas que había detectado en Bard y solicitó que no se pusiera la herramienta a disposición de los usuarios porque era "inútil", un aspecto apoyado por muchos otros compañeros de la empresa. Un mes después, en marzo, la jefa del departamento de IA de Google, Jen Gennai, anuló una evaluación de riesgos presentada por miembros del equipo que ponía de manifiesto que Bard "no estaba listo para su lanzamiento porque podría causar daño".

Un portavoz de Google, Brian Gabriel, ha negado todo lo que se denuncia en el reportaje de Bloomberg. Asegura que la ética de la IA continúa siendo una prioridad para la compañía y que siguen invirtiendo en la aplicación de los principios de Google a la inteligencia artificial.

No detalla de qué forma ni, sobre todo, a qué principios se refiere.

más noticias de TECNOLOGÍA Ir a la sección Tecnología »

Comentar

0 Comentarios

    Más comentarios