Google también se avergüenza de sus descripciones generales de IA. Después de una avalancha de mates y memes durante la semana pasada, que criticaron la mala calidad y la desinformación absoluta que surgió de la nueva función de búsqueda impulsada por IA del gigante tecnológico, la compañía emitió el jueves una especie de mea culpa. Google, una empresa cuyo nombre es sinónimo de búsqueda en la web, cuya marca se centra en “organizar la información del mundo” y ponerla al alcance de los usuarios, en realidad escribió en una publicación de blog que “ciertamente aparecieron algunas descripciones generales de IA extrañas, inexactas o inútiles”.
Eso es decirlo suavemente.
El admisión de fracasoescrito por la vicepresidenta y jefa de búsqueda de Google, Liz Reid, parece un testimonio de cómo el impulso de integrar la tecnología de inteligencia artificial en todo ha empeorado de alguna manera la búsqueda de Google.
En la publicación titulada “Acerca de la semana pasada” (¿esto superó las relaciones públicas?), Reid explica las muchas formas en que sus descripciones generales de IA cometen errores. Si bien no “alucinan” ni inventan cosas como lo hacen otros grandes modelos de lenguaje (LLM), dice, pueden equivocarse por “otras razones”, como “malinterpretar consultas, malinterpretar un matiz del lenguaje en el web, o no tener mucha información excelente disponible”.
Reid también señaló que algunas de las capturas de pantalla compartidas en las redes sociales durante la semana pasada eran falsas, mientras que otras respondían a preguntas sin sentido, como “¿Cuántas piedras debo comer?”. – algo que nadie había buscado antes. Dado que hay poca información objetiva sobre este tema, la IA de Google guió al usuario hacia contenido satírico. (En el caso de las rocas, el contenido satírico había sido publicado en el sitio web de un proveedor de software geológico).
Vale la pena señalar que si hubieras buscado en Google “¿Cuántas piedras debo comer?” y se le presentara una serie de enlaces inútiles, o incluso un artículo de broma, no se sorprendería. A lo que la gente está reaccionando es a la confianza con la que la IA respondió que “Los geólogos recomiendan comer al menos una piedra pequeña al día.”como si fuera una respuesta objetiva. Puede que no sea una “alucinación”, en términos técnicos, pero al usuario final no le importa. Es una locura.
Lo que también es inquietante es que Reid afirma que Google “probó la función exhaustivamente antes del lanzamiento”, incluso con “robustos esfuerzos de colaboración”.
Entonces, ¿nadie en Google tiene sentido del humor? ¿Nadie pensó en indicaciones que generarían malos resultados?
Además, Google minimizó la dependencia de la función de inteligencia artificial de los datos de los usuarios de Reddit como fuente de conocimiento y verdad. Aunque la gente ha añadido regularmente “Reddit” a sus búsquedas durante tanto tiempo que Google finalmente lo convirtió en un filtro de búsqueda integrado, Reddit no es un conjunto de conocimientos objetivos. Y, sin embargo, la IA señala las publicaciones del foro de Reddit para responder preguntas, sin comprender cuándo el conocimiento de primera mano de Reddit es útil y cuándo no, o peor aún, cuando se trata de un troll.
Reddit hoy está ganando dinero ofreciendo sus datos a empresas como Google, OpenAI y otros para entrenar sus modelos, pero eso no significa que los usuarios quieran que la IA de Google decida cuándo buscar una respuesta en Reddit o sugiera que la opinión de alguien es un hecho. Hay matices en aprender cuándo buscar en Reddit y la IA de Google aún no lo entiende.
Como admite Reid, “los foros suelen ser una gran fuente de información auténtica y de primera mano, pero en algunos casos pueden dar lugar a consejos poco útiles, como usar pegamento para hacer que el queso se adhiera a la pizza”, dijo, refiriéndose a uno. de las fallas más espectaculares de la función AI durante la semana pasada.
La descripción general de Google AI sugiere agregar pegamento para que el queso se adhiera a la pizza, y resulta que la fuente es un comentario de Reddit de 11 años del usuario F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
—Peter Yang (@petergyang) 23 de mayo de 2024
Sin embargo, si la semana pasada fue un desastre, al menos Google está iterando rápidamente como resultado, o eso dice.
La compañía dice que analizó ejemplos de AI Overviews e identificó patrones en los que podría funcionar mejor, incluida la creación de mejores mecanismos de detección para consultas sin sentido, la limitación del usuario de contenido generado por el usuario para respuestas que podrían ofrecer consejos engañosos y la adición de restricciones de activación para consultas en las que Las descripciones generales de IA no fueron útiles, ya que no mostraron descripciones generales de IA para temas de noticias importantes, “donde la frescura y la factualidad son importantes”, y agregaron mejoras de activación adicionales a sus protecciones para búsquedas de salud.
Dado que las empresas de IA crean chatbots cada día en constante mejora, la pregunta no es si alguna vez superarán a la Búsqueda de Google en ayudarnos a comprender la información del mundo, sino si la Búsqueda de Google alguna vez podrá ponerse al día con la IA para desafiarlos en devolver.
Por más ridículos que puedan ser los errores de Google, es demasiado pronto para descartarlo de la carrera, especialmente dada la escala masiva del equipo de pruebas beta de Google, que está compuesto esencialmente por cualquiera que utilice la búsqueda.
“No hay nada como que millones de personas utilicen esta función con muchas búsquedas novedosas”, afirma Reid.