Inicio » Tendencias » Deep Learning » Llega Bard: la respuesta de Google Search a ChatGPT-3

Llega Bard: la respuesta de Google Search a ChatGPT-3

No ha querido Google que el éxito abrumador de ChatGPT-3 continúe sin contrincante ni un día más. Ha sido el propio CEO de Google, Sundar Pichai, quien ha anunciado la puesta en marcha de Bard, la primera aplicación de los beneficios de su modelo LaMDA a uno de los productos cotidianos de Alphabet, el más importante para sus ingresos: Google Search, su buscador.

Los dos grandes centros de generación de conocimiento sobre deep learning e inteligencia artificial son OpenAI y el propio Google, siendo este último el principal productor de patentes sobre esta materia en el mundo. Se había anunciado la preocupación de Google por el progreso en la aplicación del modelo GPT-3 y su interfaz conversacional ChatGPT-3 y la intención de aplicar de inmediato los avances de sus modelos en los productos que solemos utilizar.

Bard se ha abierto el 6/2/2023 a evaluadores de confianza, es decir, todavía no está abierto a los usuarios comunes del buscador, ni siquiera a una fracción de ellos.

Hace unos meses se generó bastante ruido por un ingeniero expulsado de Google, Blake Lemoine, aseguró que aseguró que uno de los programas de la compañía tenía sentimientos humanos. El programa al que se refería era justamentea LaMDA, el modelo de lenguaje que está detrás de Bard.

Se puede utilizar Bard para simplificar temas complejos, como explicar nuevos descubrimientos del telescopio espacial James Webb de la NASA a un niño de 9 años. (Google)

Pichai aclara que, en un primer momento, lanza Bard con un modelo de LaMDA ligero, es decir, más pequeño y menos complejo, con la ventaja de que requiere una potencia de cálculo mucho más reducida. Se trata de una estrategia para dar respuestas más rápidas y para obtener mucho más feedback sobre la herramienta, de modo que permita mejorar el producto que llegará a los usuarios finales de forma más rápida.

Imagen de un resultado de Bard compartida por Google

Según esta imagen compartida por Google es evidente de que no estamos ante un chat, sino a una respuesta muy similar a los Fragmentos destacados que actualmente arroja a veces el buscador. La interfaz permitiría aparentemente hacerle la pregunta usando la voz. Se trata en definitiva de la primera aplicación conocida de LaMDA al buscador de Google, pero no es, como se afirma en algunos medios «el ChatGPT» de Google. Es algo muy distinto y seguramente genere mucho menos hype.

Sobre el motivo de que no se haya abierto al público directamente, se trata de una medida con un doble objetivo, por un lado pretenden ser cuidadosos en el lanzamiento, debido a experiencias previas como las reacciones negativas ante el lanzamiento prematuro de algunas tecnologías como las de Facebook; por otro lado estiman necesario obtener un feedback amplio para calibrar las respuestas del sistema y también para ver la mejor forma de utilizarlo y sus limitaciones.

¿Qué es LaMDA, la tecnología detrás de bard?

Google LaMDA es un modelo de lenguaje desarrollado por Google que tiene como objetivo generar respuestas naturales y conversaciones en una variedad de contextos. LaMDA se entrena en grandes cantidades de texto y utiliza tecnologías avanzadas de procesamiento de lenguaje natural para comprender y generar texto en una variedad de formas. LaMDA es una abreviatura de «Language Model for Dialogue Applications». Sus características principales son las siguientes:

  • Generación de respuestas naturales y conversaciones en una variedad de contextos.
  • Entrenamiento en grandes cantidades de texto.
  • Utiliza tecnologías avanzadas de procesamiento de lenguaje natural para comprender y generar texto.
  • Capaz de manejar una amplia gama de tareas conversacionales, incluyendo respuestas a preguntas, continuación de oraciones y generación de respuestas en función de un contexto dado.
  • Diseñado para ser fácilmente integrable en aplicaciones de conversación y chatbots.
  • Mejora continua gracias a la retroalimentación y la incorporación de nuevos datos.
  • Capaz de aprender y evolucionar con el tiempo para mejorar su capacidad de comprensión y generación de texto.

Google presentó LaMDA en una publicación en el blog de Google AI en octubre de 2021, lo que sugiere que el desarrollo comenzó antes de esa fecha.

BERT, Mum y Bardo: la evolución lógica de la aplicación de la IA en los resultados de búsqueda

BERT, la primera aplicación de IA en el buscador

El primer paso en la aplicación de un modelo de lenguaje natural a sus resultados de búsqueda por parte de Google fue BERT. El 25 de octubre de 2019, Google anunció que había comenzado a aplicar el modelo BERT para consultas de búsqueda en inglés dentro de los EEUU. El 9 de diciembre de 2019, se informó que la Búsqueda de Google había adoptado BERT en más de 70 idiomas, entre ellos el Español.

BERT son las siglas de Bidirectional Encoder Representations from Transformers. Este sistema se derivaba de su proyecto principal de procesamiento de lenguaje natural basado en redes neuronales: Transformer, que le había permitido dar un gran paso de calidad en sus sistemas de traducción automática.

El anuncio fue realizado por su vicepresidente del área de búsquedas, Pandu Nayak.

BERT ayudaba a resolver problemas que estaban afectando aproximadamente al 10% de las consultas: el buscador no entendía el contexto o la intención del usuario y devolvía resultados poco útiles. Google ponía este ejemplo de mejora, la respuesta a la pregunta de si un viajero del Brasil necesitaba un visado para Estados Unidos. El buscador se centraba en la relevancia de las palabras y devolvía la respuesta a lo que sería la consulta inversa, si un ciudadano de Estados Unidos podía viajar a Brasil sin visado, algo que el uso de BERT sí era capaz de resolver.

MUM y T5, el penúltimo avance para comprender la información

El lanzamiento de MUM fue anunicado también por Pandu Nayak, el 18 de mayo de 2021. Lo comunicó como un hito de la Inteligencia Artificial. Esta aplicación derivó de una tecnología llamada Text-To-Text Transfer Transformer (T5), entrenada con más de 75 idiomas diferentes. Otra de las diferencias con BERT es que es multimodal, es decir, no sólo busca información en textos, sino también en imágenes o videos.

Este sistema era capaz de trascender el idioma de origen de la información, de modo que si la información que se requiere sobre un lugar está mejor documentada en el idioma de ese país será esa la fuente principal que nutra a la respuesta.

Al igual que ocurrió con BERT su aplicación no afecta de forma generalizada al 100% de las búsquedas. siendo util fundamentalmente, para tareas de resumen de documentos, respuesta a preguntas y clasificación, y análisis de sentimiento u opiniones.

¿En qué se diferencia Bard de ChatGPT-3?

Aunque hay varias diferencias entre Bard y ChatGTPT-3 la más evidente es que ChatGPT-3 no está conectado a la WWW,, en palabras del propio ChatGPT-3:

«No estoy conectado a Internet y no tengo conciencia de la actualización de cualquier página web en tiempo real».

ChatGPT-3, respuesta a 7/2/2023

Si embargo Bard aparentemente sí está conectado a la base de datos de Google Search, lo que le da la ventaja de dar respuestas más ‘frescas’ y actualizadas, así como de proporcionar respuesta a información posterior a 2021, una cuestión en la que ChatGPT-3 está limitado.

Otro aspecto en el que parecen diferenciarse es que Bard, al igual que lo hacían BERT y MUM trata primero de procesar las preguntas del usuario para desglosarlas en otras relacionadas o darles contexto, algo que no parece hacer así ChatGPT-3 que parece generar sus textos de forma casi inmediata a partir de nuestras preguntas.

Por otro lado ChatGPT-3 ha demostrado ciertas capacidades avanzadas en la escritura de código o en cálculos aritméticos, algo que por el momento no sabemos si Bard podrá resolver. Asimismo ChatGPT-3 se está utilizando para generar textos de cierta extensión (900-1.200 palabras), algo que al menos en la interfaz inicial que ha compartido el CEO de Gogle no está claro que vaya a proporcionar Bard.

Otro aspecto en el que podrían diferenciarse, en este caso en favor de Bard es la capacidad de dar respuestas creativas, ChatGPT-3 presenta ciertas limitaciones, mientras que LaMDA ha presentado en diversos ejemplos capacidades más creativas y respuestas aparentemente más «humanas».

Por otro lado Bard respondería de forma rápida y directa a preguntas realizadas por voz, cosa que actualmente ChatGPT-3 no puede hacer.

En cuanto a la comparativa en aplicaciones a las búsquedas, debemos estar muy pendientes del anunciado evento sorpresa que ha convocado Microsoft de la mano de Sam Altam y que ha versado precisamente de la integración de los sistemas de lenguaje de OpenAI con Bing y con Edge.

Referencias

Bibliografía

  1. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A.N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems (pp. 5998-6008).
  2. Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
  3. Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., … & Riedel, S. (2020). Language Models are Few-Shot Learners. arXiv preprint arXiv:2005.14165.
  4. Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI.
  5. Liu, Y., Ott, M., Goyal, N., Du, J., Joshi, M., Chen, D., … & Stoyanov, V. (2019). Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692.
  6. Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., … & Wattenberg, M. (2019). Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. arXiv preprint arXiv:1910.10683.
  7. Yang, Z., Dai, Z., Yang, Y., Carbonell, J. G., Salakhutdinov, R., & Le, Q. V. (2019). Xlnet: Generalized autoregressive pretraining for language understanding. In Advances in Neural Information Processing Systems (pp. 5754-5764).

Formación Relacionada

Las dos pestañas siguientes cambian el contenido a continuación.
José Antonio Redondo ha desarrollado su actividad profesional entre los ámbitos de Internet, la formación y la cultura. Es Google Partner y cofundador de Hotel Kafka y Director de Estrategia Digital e Infraestructura Web de IMF Business School. Trabajó más de 19 años en el campo del eLearning como consultor y directivo y lleva más de 20 liderando proyectos en el ámbito digital y escribiendo libros y manuales sobre estas materias y sobre management. Actualmente es asesor y formador en materia de ebusiness y marketing y comunicación digital; siendo también director de ambitocultural.es, la web de cultura de El Corte Inglés. Fue vocal desde su fundación de la Comisión de Innovación y Nuevas Tecnologías de CEIM (Confederación de Empresarial de Madrid – CEOE) y de la Comisión de eLearning de la Asociación Nacional de Empresas de Internet (ANEI). Es autor también de varios libros, artículos y manuales relacionados con la gestión de calidad en empresas de servicios, Internet y comercio electrónico. Tras estudiar Ciencias Químicas y Matemáticas en la UCM, se especializó en dirección de empresas y en gestión de producción y tecnología en la Universidad Politécnica de Madrid así como en todos los aspectos relacionados con Internet. Cursó Piano en la Escuela de Música Creativa y es Máster en Creación Literaria por la Escuela de Letras de Madrid.
LEE  Principales sectores afectados por el Deep Learning

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

¡Noticias, eventos y formación!

Suscríbete ahora y recibe los mejores contenidos sobre Negocios, Prevención, Marketing, Energías Renovables, Tecnología, Logística y Recursos Humanos.

Acepto recibir comunicaciones comerciales por parte del grupo IMF
He leído y acepto las condiciones


Llega Bard: la respuesta de Google Search a ChatGPT-3 • IMF