Home MundoUSA Google criticado porque AI Overview comete errores obvios, como decir que el expresidente Obama es musulmán

Google criticado porque AI Overview comete errores obvios, como decir que el expresidente Obama es musulmán

por Redacción BL
0 comentario

Han pasado menos de dos semanas desde Google debutó con «Descripción general de IA» en la Búsqueda de Google, y las críticas públicas han aumentado después de que las consultas arrojaron resultados sin sentido o inexactos dentro de la función de IA, sin ninguna forma de excluirse.

La descripción general de AI muestra un resumen rápido de las respuestas a las preguntas de búsqueda en la parte superior de la Búsqueda de Google. Por ejemplo, si un usuario busca la mejor manera de limpiar botas de cuero, la página de resultados puede mostrar una «Descripción general de IA» en la parte superior con un proceso de limpieza de varios pasos, obtenido a partir de la información que sintetizó en la web.

Pero los usuarios de las redes sociales han compartido una amplia gama de capturas de pantalla que muestran la herramienta de inteligencia artificial dando respuestas incorrectas y controvertidas.

Google, Microsoft, OpenAI y otras empresas están a la cabeza de una carrera armamentista generativa de IA a medida que empresas de aparentemente todos los sectores se apresuran a agregar chatbots y agentes impulsados ​​por IA para evitar quedarse atrás frente a sus competidores. Se prevé que el mercado Top $1 billón en ingresos en una década.

A continuación se muestran algunos ejemplos de errores producidos por AI Overview, según capturas de pantalla compartidas por los usuarios.

Cuando se le preguntó cuántos presidentes musulmanes ha tenido Estados Unidos, AI Overview respondió«Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama.»

Cuando un usuario buscaba «queso que no se pega a la pizza», la función sugirió agregando «aproximadamente 1/8 de taza de pegamento no tóxico a la salsa». Usuarios de redes sociales encontraron un Comentario de Reddit de 11 años esa parecía ser la fuente.

La atribución también puede ser un problema para AI Overview, especialmente al atribuir información inexacta a profesionales médicos o científicos.

Por ejemplo, cuando se le preguntó: «¿Cuánto tiempo puedo mirar al sol para tener una mejor salud?», la herramienta dicho«Según WebMD, los científicos dicen que mirar al sol durante 5 a 15 minutos, o hasta 30 minutos si tienes la piel más oscura, es generalmente seguro y proporciona los mayores beneficios para la salud».

Cuando se le preguntó: «¿Cuántas piedras debo comer cada día», la herramienta dicho«Según los geólogos de la Universidad de California en Berkeley, la gente debería comer al menos una piedra pequeña al día», y enumera las vitaminas y los beneficios digestivos.

La herramienta también puede responder de manera inexacta a consultas simples, como hacer una lista de frutas que terminan con «um», o decir que el año 1919 fue hace 20 años.

Cuando se le preguntó si la Búsqueda de Google viola o no la ley antimonopolio, AI Overview dicho«Sí, el Departamento de Justicia de EE. UU. y 11 estados están demandando a Google por violaciones antimonopolio».

El día que Google lanzó AI Overview en su evento anual Google I/O, la compañía dijo que también planea introducir capacidades de planificación tipo asistente directamente dentro de la búsqueda. Explicó que los usuarios podrán buscar algo como «Crear un plan de alimentación de 3 días para un grupo que sea fácil de preparar» y obtendrán un punto de partida con una amplia gama de recetas de toda la web.

«La gran mayoría de las descripciones generales de IA proporcionan información de alta calidad, con enlaces para profundizar en la web», dijo un portavoz de Google a CNBC en un comunicado. «Muchos de los ejemplos que hemos visto han sido consultas poco comunes y también hemos visto ejemplos que fueron manipulados o que no pudimos reproducir».

El portavoz dijo que AI Overview se sometió a pruebas exhaustivas antes del lanzamiento y que la compañía está tomando «medidas rápidas cuando corresponda según nuestras políticas de contenido».

La noticia sigue al lanzamiento de alto perfil de Google de la herramienta de generación de imágenes Gemini en febrero, y a una pausa ese mismo mes después de problemas comparables.

La herramienta permitió a los usuarios ingresar indicaciones para crear una imagen, pero casi de inmediato, los usuarios descubrieron inexactitudes históricas y respuestas cuestionables, que circularon ampliamente en las redes sociales.

Por ejemplo, cuando un usuario le pidió a Gemini que le mostrara a un soldado alemán en 1943, la herramienta mostraba un conjunto de soldados racialmente diversos vistiendo uniformes militares alemanes de la época, según capturas de pantalla en la plataforma de redes sociales X.

Cuando se le pidió una «representación históricamente precisa de un rey británico medieval», el modelo generó otro conjunto de imágenes racialmente diversas, incluida una de una mujer gobernante, capturas de pantalla presentado. Usuarios reportados resultados similares cuando pidieron imágenes de los padres fundadores de Estados Unidos, un rey de Francia del siglo XVIII, una pareja alemana del siglo XIX y más. La modelo mostró una imagen de hombres asiáticos en respuesta a una consulta sobre los propios fundadores de Google, informaron los usuarios.

Google dijo en un comunicado en ese momento que estaba trabajando para solucionar los problemas de generación de imágenes de Gemini, reconociendo que la herramienta «no estaba dando en el blanco». Poco después, la compañía anunció que «detendría inmediatamente la generación de imágenes de personas» y «volvería a publicar una versión mejorada pronto».

En febrero, el director ejecutivo de Google DeepMind, Demis Hassabis, dijo que Google planeaba relanzar su herramienta de generación de imágenes de inteligencia artificial en las próximas «pocas semanas», pero que aún no se ha vuelto a implementar.

Los problemas con los resultados de generación de imágenes de Gemini reavivaron un debate dentro de la industria de la IA, con algunos grupos llamando a Gemini demasiado «despertado» o de tendencia izquierdista, y otros diciendo que la compañía no invirtió lo suficiente en las formas correctas de ética de la IA. Google fue criticado en 2020 y 2021 por expulsando a los co-líderes de su grupo de ética de IA después de que publicaron un artículo de investigación que criticaba ciertos riesgos de tales modelos de IA y luego reorganizaron la estructura del grupo.

En 2023, Sundar Pichai, director ejecutivo de la empresa matriz de Google, Alphabet, fue criticado por algunos empleados por el lanzamiento fallido y «apresurado» de Bard por parte de la empresa, que siguió a la difusión viral de ChatGPT.

Corrección: este artículo se actualizó para reflejar el nombre correcto de Descripción general de IA de Google. Además, una versión anterior de este artículo incluía un enlace a una captura de pantalla que Google confirmó más tarde que estaba manipulada.



Fuente de la Noticia

You may also like

Leave a Comment

Noticias de Buenaventura y el mundo

2024 – All Right Reserved. [email protected]