3 experimentos que revelan el poder del ChatGPT
Si miramos a nuestro alrededor, seguramente habremos notado un aumento del interés por la inteligencia artificial capaz de procesar el lenguaje con más precisión y eficacia que nunca. Sí, los chatbots han mejorado a pasos agigantados desde los tiempos de Eliza, el primer bot cuya personalidad de terapeuta enmascaraba hábilmente sus límites cognitivos reflejando las entradas del usuario con respuestas sin compromiso. Los bots actuales parecen entender de verdad a los usuarios, e incluso pueden explicar memes.
Lo que está potenciando estas IA son los grandes modelos lingüísticos (LLM). Los LLM son herramientas de predicción lingüística capaces de leer, resumir y traducir textos mediante la predicción de las próximas palabras de una frase, lo que les permite generar nuevos textos que se asemejan mucho al habla y la escritura humanas. Son expertos tanto en escribir como en interpretar textos, y esa capacidad cognitiva significa que pueden hacer mucho más que escribir el primer borrador de un correo electrónico o resumir las notas de una reunión.
ChatGPT, creado por OpenAI, ha ganado una popularidad increíble gracias a su sencilla interfaz conversacional y a su facilidad de uso. Esta accesibilidad ha inspirado a varios equipos de Media.Monks a experimentar con las LLM, y con GPT en particular, para encontrar mejores formas de trabajar y crear. El resultado es una serie de innovaciones prototipadas que demuestran la capacidad de los LLM para ayudar en la colaboración interna, agilizar la recopilación de información y el autoservicio, y hacer que las métricas altamente técnicas sean más accesibles para todos.
Facilitar la colaboración mediante experiencias multiusuario.
Los Labs.Monks, nuestro equipo de I+D centrado en la tecnología y la innovación, crearon un chatbot diseñado para agilizar la lluvia de ideas y la colaboración entre equipos. Con el encantador nombre de Brian (originalmente de un juego de palabras interno de BrAIn, pero rebautizado para simplificar), el bot impulsado por GPT se integra en Slack y actúa como un participante inteligente y activo en los canales del equipo. La idea de Brian surgió al darse cuenta de que la mayoría de las aplicaciones de ChatGPT se basan en tareas, lo que inspiró al equipo a considerar otras formas en que las GPT pueden apoyar a los equipos, como servir de colaborador creativo.
Brian tiene dos modos. En el modo de facilitación, mantiene en marcha las tormentas de ideas del grupo ofreciendo preguntas y proporcionando resúmenes sobre el debate. En el modo de contribución, Brian actúa como un colaborador más que piensa junto con el equipo y se suma a la discusión.
"Durante una de nuestras pruebas, nos ayudó a crear un briefing ficticio sobre cómo crear una activación experiencial para una marca de refrescos dirigida a personas mayores, ¡con resultados muy interesantes! Aunque al final acabamos teniendo una idea nosotros mismos, la aportación de Brian nos ayudó a llegar a otros resultados que de otro modo no se nos habrían ocurrido", dice Angélica Ortiz, Tecnóloga Creativa Senior. La posibilidad de entablar un debate entre un grupo de usuarios (e incluso de dirigirse a ellos por su nombre) diferencia a Brian de otros chatbots, que suelen limitarse a conversaciones individuales.
En un principio, el equipo creó a Brian como ejercicio para adquirir conocimientos prácticos y experiencia con los LLM, tema central de su reciente informe Labs. Ahora, el equipo está estudiando la forma de desplegarlo como herramienta de uso generalizado por parte del equipo de Media.Monks.
La aportación de Brian nos ayudó a llegar a otros resultados que de otro modo no se nos habrían ocurrido.
Una alternativa al ajuste de GPT.
Después de ver el potencial de los LLM, muchas marcas están explorando la idea de afinar esos modelos para que se adapten mejor a su tono de voz o a los tipos de contenido que crean. Por lo general, el ajuste de un modelo existente puede ser rentable, ya que elimina la necesidad de entrenar un modelo, programar un chatbot o escribir nuevos contenidos desde cero. Pero para algunos casos de uso, el ajuste puede ser prohibitivamente caro en comparación con otro método de generar resultados más únicos para la marca: la ingeniería rápida.
Nuestra práctica de Servicios Técnicos desarrolló un método de ingeniería de avisos que facilita la creación de un chatbot impulsado por GPT que puede responder preguntas basadas en contenido de un dominio específico. El ejemplo que utilizan es convertir la wiki interna de una empresa en un asistente que ahorre a los empleados la molestia de buscar y rebuscar en largos documentos para encontrar la información que necesitan. La tecnología clave de este método son las incrustaciones de OpenAI, una función que permite emparejar las consultas de los usuarios con las respuestas de las fuentes de contenido más relevantes.
Las incrustaciones desbloquean algunas funciones increíbles. Los usuarios pueden hacer preguntas y recibir respuestas en el idioma de su elección, independientemente del idioma original del contenido de origen, lo que significa que no hay necesidad de localizar. Tampoco se basan en coincidencias exactas de palabras; si alguien pregunta a nuestro hipotético bot wiki de empresa sobre las políticas de "tiempo de vacaciones", el bot sabrá extraer información de un documento sobre "tiempo libre remunerado" Añadir más contenido al chatbot también es fácil, ya que todo lo que se necesita es un simple webhook para permitir que el bot responda a preguntas sobre nuevos contenidos a medida que se publican.
Si quieres saber más sobre cómo utilizar las incrustaciones para crear tu propio bot, consulta el artículo completo. También verás un vídeo de demostración en el que se explica cómo las incrustaciones consiguen cada uno de los resultados anteriores.
Digerir la información a gran velocidad.
Examinar los datos puede ser abrumador, especialmente si los números no son su fuerte. Por eso, nuestro equipo de automatización empresarial ha desarrollado Turing.Monk, un chatbot que recibe el cariñoso nombre de Alan Turing, el informático del siglo XX que desarrolló el test de Turing, que pone a prueba la capacidad de un ordenador para mostrar un comportamiento inteligente. Turing.Monk ayuda a los equipos a encontrar rápidamente las respuestas que necesitan sobre sus campañas respondiendo a consultas en tres formatos: listas, resúmenes y gráficos.
El bot funciona de forma muy parecida a un asistente de marketing, ayudando a los profesionales del marketing a sacar conclusiones sobre el rendimiento de una campaña. ¿Quieres ver cómo ha variado el coste de los medios semana a semana? Sólo tienes que pedirle a Turing.Bot que "te proporcione un resumen escrito de cómo está cambiando el coste de los medios" para la campaña en cuestión. Así de fácil.
La capacidad de formular preguntas en lenguaje natural ayuda a poner la analítica y la ciencia de datos al alcance de la mano para aquellos miembros del equipo que no sepan SQL o Python. "Es pronto para el desarrollo, pero hoy en día un gestor de cuentas puede seguir preguntando y afinando la pregunta para obtener el resultado que desea", afirma Michael Balarezo, Vicepresidente Global de Automatización Empresarial. "Ahora estamos trabajando para mejorar la capacidad analítica de la herramienta, aprovechando el poder de los LLM para comprender los matices de la petición y traducirlos en una generación de información más compleja"
Aún queda mucho por hacer.
Aunque se ha hablado mucho de la capacidad de los LLM para generar texto, su habilidad para interpretar consultas y sacar a la luz información útil y contextual -todo ello en un formato conversacional- los convertirá en herramientas increíbles en el lugar de trabajo y fuera de él. Desde facilitar la colaboración creativa hasta hacer que la información sea fácilmente accesible para todos, pasando por dar superpoderes a las personas poniendo datos digeribles al alcance de su mano, el potencial de los LLM como GPT es enorme, y puedes apostar a que seguiremos experimentando y encontrando aún más aplicaciones y casos de uso para beneficiar a nuestro equipo y a las marcas con las que trabajamos.
Related
Pensamiento
-
Entrada de blog
Resumen de Dreamforce: Aspectos destacados y principales conclusiones del mayor evento de Salesforce Por Rocky Najdawi 7 mins de lectura -
Entrada de blog
Revolucione las retransmisiones en directo con la segmentación de contenidos en tiempo real basada en IA Por Lewis Smithingham 6 mins de lectura -
Entrada de blog
Monks recibe el premio AI Visionary Award en Automate 2024 Por Laurent Farci 6 mins de lectura
Acelera nuestro corazón digital
Reciba nuestro boletín con inspiración sobre las últimas tendencias, proyectos y mucho más.
Media.Monks necesita la información de contacto que usted nos facilita para ponerse en contacto con usted en relación con nuestros productos y servicios. Puede darse de baja de estas comunicaciones en cualquier momento. Para obtener información sobre cómo darse de baja, así como nuestras prácticas de privacidad y el compromiso de proteger su privacidad, por favor revise nuestra Política de Privacidad.