Aprovechar los conocimientos propios de una empresa es fundamental para su capacidad de competir e innovar, especialmente en el volátil entorno actual. La innovación organizacional se impulsa mediante la creación, la gestión, la aplicación, la recombinación y el despliegue efectivos y ágiles de los activos de conocimiento y los conocimientos. Sin embargo, el conocimiento dentro de las organizaciones normalmente se genera y captura a través de varias fuentes y formas, incluidas las mentes individuales, los procesos, las políticas, los informes, las transacciones operativas, los paneles de debate y las charlas y reuniones en línea. Por lo tanto, a menudo no se tiene en cuenta el conocimiento exhaustivo de una empresa y es difícil organizarlos e implementarlos cuando se necesitan de manera eficaz o eficiente.

•••

Muchas empresas están experimentando con ChatGPT y otros modelos de idiomas o imágenes de gran tamaño. En general, les ha parecido asombrosas en términos de su habilidad para expresar ideas complejas en un lenguaje articulado. Sin embargo, la mayoría de los usuarios se dan cuenta de que estos sistemas se entrenan principalmente con información basada en Internet y no pueden responder a las indicaciones o preguntas relacionadas con el contenido o el conocimiento patentado.

Aprovechar los conocimientos propios de una empresa es fundamental para su capacidad de competir e innovar, especialmente en el volátil entorno actual. La innovación organizacional se impulsa mediante la creación, la gestión, la aplicación, la recombinación y el despliegue efectivos y ágiles de los activos de conocimiento y los conocimientos. Sin embargo, el conocimiento dentro de las organizaciones normalmente se genera y captura a través de varias fuentes y formas, incluidas las mentes individuales, los procesos, las políticas, los informes, las transacciones operativas, los paneles de debate y las charlas y reuniones en línea. Por lo tanto, a menudo no se tiene en cuenta el conocimiento exhaustivo de una empresa y es difícil organizarlos e implementarlos cuando se necesitan de manera eficaz o eficiente.

Las tecnologías emergentes, en forma de grandes modelos de IA que generan idiomas e imágenes, ofrecen nuevas oportunidades de gestión del conocimiento y, por lo tanto, mejoran el rendimiento, el aprendizaje y las capacidades de innovación de la empresa. Por ejemplo, en unestudio llevado a cabo en un proveedor de software de procesos empresariales de la lista Fortune 500, un sistema generativo basado en la IA para la atención al cliente permitió aumentar la productividad de los agentes de atención al cliente y mejorar la retención, al tiempo que generó más comentarios positivos por parte de los clientes. El sistema también aceleró el aprendizaje y el desarrollo de habilidades de los agentes novatos.

Al igual que esa empresa, un número cada vez mayor de organizaciones están intentando aprovechar las habilidades de procesamiento del lenguaje y las habilidades de razonamiento general de los grandes modelos lingüísticos (LLM) para captar y ofrecer un amplio acceso interno (o de clientes) a su propio capital intelectual. Lo utilizan para informar a sus empleados que están de cara al cliente sobre las políticas de la empresa y las recomendaciones de productos o servicios, resolver problemas de servicio al cliente o captar los conocimientos de los empleados antes de que dejen la organización.

Estos objetivos también estuvieron presentes durante el apogeo del movimiento de la «gestión del conocimiento» en la década de 1990 y principios de la década de 2000, pero la mayoría de las empresas consideraron que la tecnología de la época era inadecuada para esa tarea. Sin embargo, hoy en día, la IA generativa está reavivando la posibilidad de capturar y difundir conocimientos importantes en toda la organización y más allá de sus muros. Como dijo un directivo que utilizaba la IA generativa con este propósito: «Siento que una mochila propulsora acaba de llegar a mi vida». A pesar de los avances actuales, algunos de los mismos factores que dificultaban la gestión del conocimiento en el pasado siguen presentes.

La tecnología para la gestión generativa del conocimiento basada en la IA

La tecnología para incorporar los conocimientos del dominio específico de una organización en un LLM está evolucionando rápidamente. Por el momento, hay tres enfoques principales para incorporar el contenido propietario en un modelo generativo.

Entrenar un LLM desde cero

Un enfoque consiste en crear y entrenar el propio modelo de dominio específico desde cero. No es un enfoque común, ya que se necesita una enorme cantidad de datos de alta calidad para entrenar un modelo lingüístico grande, y la mayoría de las empresas simplemente no los tienen. También requiere acceso a una potencia de cálculo considerable y a un talento en ciencia de datos bien formado.

Una empresa que ha empleado este enfoque es Bloomberg, que recientemente anunció que había creado BloombergGPT para contenido específico sobre finanzas y una interfaz en lenguaje natural con su terminal de datos. Bloomberg tiene más de 40 años de datos financieros, noticias y documentos, que combina con un gran volumen de texto de archivos financieros y datos de Internet. En total, los científicos de datos de Bloomberg emplearon 700 000 millones de fichas, o unos 350 000 millones de palabras, 50 000 millones de parámetros y 1,3 millones de horas de tiempo por unidad de procesamiento gráfico. Pocas empresas tienen esos recursos disponibles.

Ajustar un LLM existente

Un segundo enfoque consiste en «ajustar» la formación de un LLM existente para que añada contenido de dominio específico a un sistema que ya está formado en los conocimientos generales y la interacción basada en el idioma. Este enfoque implica ajustar algunos parámetros de un modelo base y, por lo general, requiere muchos menos datos (normalmente solo cientos o miles de documentos, en lugar de millones o miles de millones) y menos tiempo de cálculo que crear un nuevo modelo desde cero.

Google, por ejemplo, utilizó el entrenamiento ajustado en suMed-Palm 2 (segunda versión) modelo de conocimiento médico. El proyecto de investigación comenzó con el LLM PalM2 general de Google y lo reformó basándose en conocimientos médicos cuidadosamente seleccionados de una variedad de conjuntos de datos médicos públicos. El modelo podía responder al 85% de las preguntas de los exámenes de licencia médica de EE. UU., casi un 20% más que la primera versión del sistema. A pesar de este rápido progreso, al probarlo según criterios como la realidad científica, la precisión, el consenso médico, el razonamiento, los sesgos y el daño, y evaluado por expertos humanos de varios países, el equipo de desarrollo consideró que el sistema aún necesitaba mejoras sustanciales antes de adoptarlo en la práctica clínica.

Sin embargo, el enfoque de ajuste tiene algunas limitaciones. Aunque requiere mucha menos potencia y tiempo de cálculo que formar un LLM, puede resultar caro de entrenar, lo que no fue un problema para Google, pero sí lo sería para muchas otras empresas. Requiere una considerable experiencia en ciencia de datos; elartículo científico para el proyecto de Google, por ejemplo, tuvo 31 coautores. Algunos científicos de datos sostienen que es más adecuado no para añadir contenido nuevo, sino para añadir nuevos formatos y estilos de contenido (como charlar o escribir, como William Shakespeare). Además, algunos vendedores de LLM (por ejemplo, OpenAI) no permiten ajustar sus últimos LLM, como la GPT-4.

Ajustar rápidamente un LLM existente

Quizás el enfoque más común para personalizar el contenido de un LLM para las empresas que no ofrecen servicios en la nube sea ajustarlo mediante las instrucciones. Con este enfoque, el modelo original se mantiene congelado y se modifica mediante las indicaciones de la ventana de contexto que contienen información específica del dominio. Tras un ajuste rápido, el modelo puede responder a las preguntas relacionadas con esos conocimientos. Este enfoque es el más eficiente desde el punto de vista computacional de los tres y no requiere una gran cantidad de datos para entrenarlos en un nuevo dominio de contenido.

Morgan Stanley, por ejemplo, utilizó prompt tuning para entrenar el modelo GPT-4 de OpenAI con un conjunto cuidadosamente seleccionado de 100 000 documentos con importantes conocimientos sobre inversiones, negocios generales y procesos de inversión. El objetivo era proporcionar a los asesores financieros de la empresa conocimientos precisos y de fácil acceso sobre los principales problemas a los que se enfrentan en sus funciones de asesoramiento a los clientes. El sistema de entrenamiento rápido funciona en una nube privada a la que solo pueden acceder los empleados de Morgan Stanley.

Si bien este es quizás el enfoque más fácil de adoptar para una organización, no está exento de desafíos técnicos. Cuando se utilizan datos no estructurados, como texto, como entrada en una LLM, es probable que los datos sean demasiado grandes y tengan demasiados atributos importantes como para introducirlos directamente en la ventana de contexto de la LLM. La alternativa es crear incrustaciones vectoriales, matrices de valores numéricos producidas a partir del texto por otro modelo de aprendizaje automático previamente entrenado (Morgan Stanley usa uno de OpenAI llamado Ada). Las incrustaciones vectoriales son una representación más compacta de estos datos que preserva las relaciones contextuales en el texto. Cuando un usuario introduce un prompt en el sistema, un algoritmo de similitud determina qué vectores deben enviarse al modelo GPT-4. Aunque varios proveedores ofrecen herramientas para facilitar este proceso de prompt tuning, sigue siendo lo suficientemente complejo como para que la mayoría de las empresas que adopten este enfoque necesiten tener un talento sustancial en ciencia de datos.

Sin embargo, este enfoque no tiene por qué llevar mucho tiempo ni ser caro si el contenido necesario ya está presente. La empresa de estudios de inversiones Morningstar, por ejemplo, utilizó el ajuste rápido y las incrustaciones vectoriales para su herramienta de investigación de Mo, basada en la IA generativa. Incorpora más de 10 000 artículos de investigación de Morningstar. Después de aproximadamente un mes de trabajo en su sistema, Morningstar abrió el uso de Mo a sus asesores financieros y clientes inversores independientes. Incluso adjuntó a Mo a un avatar digital que podía decir sus respuestas. Este enfoque técnico no es caro; en su primer mes de uso, Mo respondió a 25 000 preguntas con un coste medio de 0,002 dólares por pregunta, con un coste total de 3000 dólares.

Curación y gobierno del contenido

Al igual que en la gestión del conocimiento tradicional, en la que los documentos se cargaban en bases de datos de debates, como Microsoft Sharepoint, con la IA generativa, el contenido debe ser de alta calidad antes de personalizar los LLM de cualquier manera. En algunos casos, como en el sistema Med-Palm2 de Google, hay bases de datos de conocimientos médicos ampliamente disponibles que ya se han seleccionado. De lo contrario, una empresa debe confiar en la selección humana para garantizar que el contenido de conocimiento sea preciso, puntual y no se duplique. Morgan Stanley, por ejemplo, tiene un grupo de unos 20 gestores del conocimiento en Filipinas que puntúan constantemente los documentos según varios criterios; estos determinan su idoneidad para su incorporación al sistema GPT-4. A la mayoría de las empresas que no tienen contenido bien seleccionado les resultará difícil hacerlo precisamente con este propósito.

Morgan Stanley también ha descubierto que es mucho más fácil mantener un conocimiento de alta calidad si los autores del contenido saben cómo crear documentos eficaces. Deben realizar dos cursos, uno sobre la herramienta de gestión de documentos y otro sobre cómo escribir y etiquetar estos documentos. Este es un componente del enfoque de la empresa en materia de gobierno del contenido, un método sistemático para capturar y gestionar el contenido digital importante.

En Morningstar, a los creadores de contenido se les enseña qué tipo de contenido funciona bien con el sistema Mo y qué no. Presentan su contenido a un sistema de gestión de contenido y va directamente a la base de datos vectorial que suministra el modelo OpenAI.

Control de calidad y evaluación

Un aspecto importante de la gestión del contenido de IA generativa es garantizar la calidad. La IA generativa es muy conocida por «alucinar» de vez en cuando, declarando con confianza hechos que son incorrectos o inexistentes. Los errores de este tipo pueden ser problemáticos para las empresas, pero podrían ser mortales en las aplicaciones de atención médica. La buena noticia es que las empresas que han ajustado sus LLM a la información de un dominio específico han descubierto que las alucinaciones son un problema menor que las LLM listas para usar, al menos si no hay diálogos extendidos o indicaciones que no sean comerciales.

Las empresas que adopten estos enfoques de la gestión generativa del conocimiento sobre la IA deberían desarrollar una estrategia de evaluación. Por ejemplo, para BloombergGPT, que tiene como objetivo responder a preguntas financieras y de inversión, el sistema se evaluó en función de un conjunto de datos públicos de tareas financieras, el reconocimiento de entidades nombradas, la capacidad de análisis de sentimientos y un conjunto de tareas generales de razonamiento y procesamiento del lenguaje natural. El sistema Med-Palm2 de Google, que finalmente se orientó a responder a las preguntas médicas de los pacientes y los médicos, tenía una estrategia de evaluación mucho más amplia, que reflejaba la importancia de la precisión y la seguridad en el ámbito de la medicina.

La vida o la muerte no son un problema en Morgan Stanley, pero dar respuestas muy precisas a las cuestiones financieras y de inversión es importante para la empresa, sus clientes y sus reguladores. Las respuestas proporcionadas por el sistema fueron evaluadas cuidadosamente por revisores humanos antes de darlas a conocer a los usuarios. Luego, 300 asesores financieros lo pusieron a prueba durante varios meses. Como enfoque principal de la evaluación continua, Morgan Stanley tiene un conjunto de 400 «preguntas de oro» para las que se conocen las respuestas correctas. Cada vez que se realiza algún cambio en el sistema, los empleados lo ponen a prueba con las preguntas de oro para comprobar si ha habido alguna «regresión» o respuestas menos precisas.

Cuestiones legales y de gobierno

Los problemas legales y de gobierno asociados con los despliegues de LLM son complejos y están en constante evolución, y provocan factores de riesgo relacionados con la propiedad intelectual, la privacidad y la seguridad de los datos, los sesgos y la ética y los resultados falsos o inexactos. En la actualidad, la situación legal de las producciones de LLM aún no está clara. Como los LLM no producen réplicas exactas de ninguno de los textos utilizados para entrenar el modelo, muchos observadores legales consideran que se les aplicarán las disposiciones de «uso justo» de la ley de derechos de autor, aunque esto no se ha puesto a prueba en los tribunales (y no todos los países incluyen esas disposiciones en sus leyes de derechos de autor). En cualquier caso, es buena idea que cualquier empresa que utilice ampliamente la IA generativa para gestionar el conocimiento (o la mayoría de los demás fines) cuente con representantes legales que participen en el proceso de creación y gobierno de los LLM ajustados. En Morningstar, por ejemplo, los abogados de la empresa ayudaron a crear una serie de «instrucciones previas» que indicaban al sistema de IA generativa qué tipos de preguntas debe responder y cuáles debe evitar cortésmente.

Las indicaciones de los usuarios en las LLM disponibles públicamente se utilizan para entrenar futuras versiones del sistema, por lo que algunas empresas (Samsung, por ejemplo) han temido la propagación de información confidencial y privada y han prohibido el uso de LLM por parte de los empleados. Sin embargo, la mayoría de los esfuerzos de las empresas por ajustar las LLM con contenido de dominios específicos se realizan en instancias privadas de los modelos que no son accesibles para los usuarios públicos, por lo que esto no debería ser un problema. Además, algunos sistemas de IA generativa, como ChatGPT, permiten a los usuarios desactivar la recopilación del historial de chats, lo que puede abordar problemas de confidencialidad incluso en los sistemas públicos.

Para abordar los problemas de confidencialidad y privacidad, algunos proveedores ofrecen funciones de seguridad y protección avanzadas y mejoradas para las LLM, que incluyen borrar las instrucciones de los usuarios, restringir ciertos temas e impedir la entrada de código fuente y datos de propiedad en las LLM de acceso público. Además, los proveedores de sistemas de software empresarial están incorporando una «capa de confianza» en sus productos y servicios.Fuerza de ventas, por ejemplo, incorporó la función Einstein GPT a su suite AI Cloud para abordar la «brecha de confianza en la IA» entre las empresas que desean implementar rápidamente las capacidades de LLM y los riesgos antes mencionados que estos sistemas representan en los entornos empresariales.

Moldear el comportamiento de los usuarios

La facilidad de uso, la amplia disponibilidad pública y las respuestas útiles que abarcan varios dominios del conocimiento han llevado a los empleados a adoptar rápida, poco guiada y orgánica la gestión generativa del conocimiento basada en la IA por parte de los empleados. Por ejemplo, una encuesta reciente indicó que más de un tercio de los empleados encuestados utilizaban la IA generativa en sus trabajos, pero el 68% de los encuestados no informó a sus supervisores de que utilizaban la herramienta. Para aprovechar las oportunidades y gestionar los posibles riesgos de las aplicaciones de la IA generativa a la gestión del conocimiento, las empresas necesitan desarrollar una cultura de transparencia y responsabilidad que haga que los sistemas de gestión del conocimiento basados en la IA generativa tengan éxito.

Además de implementar políticas y directrices, los usuarios deben saber cómo incorporar de forma segura y eficaz las capacidades de IA generativa en sus tareas para mejorar el rendimiento y la productividad. Las capacidades de IA generativa, como el conocimiento del contexto y la historia, la generación de nuevo contenido mediante la agregación o combinación de conocimientos de varias fuentes y las predicciones basadas en datos, pueden proporcionar un poderoso apoyo al trabajo de conocimiento. Los sistemas de gestión del conocimiento basados en la IA generativa pueden automatizar los procesos de búsqueda que requieren mucha información (la investigación de casos legales, por ejemplo), así como las tareas cognitivas de gran volumen y baja complejidad, como responder a los correos electrónicos rutinarios de los clientes. Este enfoque aumenta la eficiencia de los empleados y les permite esforzarse más en los complejos aspectos de sus trabajos en la toma de decisiones y la resolución de problemas.

Algunos comportamientos específicos que podría ser conveniente inculcar, ya sea mediante formación o políticas, incluyen:

  • Conocimiento de los tipos de contenido disponibles en el sistema;
  • Cómo crear mensajes efectivos;
  • Qué tipos de indicaciones y diálogos están permitidos y cuáles no;
  • Cómo solicitar que se añada contenido de conocimiento adicional al sistema;
  • Cómo utilizar las respuestas del sistema para tratar con los clientes y los socios;
  • Cómo crear contenido nuevo de una manera útil y eficaz.

Tanto Morgan Stanley como Morningstar capacitaron a los creadores de contenido, en particular, sobre la mejor manera de crear y etiquetar el contenido y qué tipos de contenido son adecuados para el uso generativo de la IA.

«Todo se mueve muy rápido»

Uno de los ejecutivos que entrevistamos dijo: «Puedo explicarle cómo están las cosas hoy en día. Pero todo avanza muy rápido en esta zona». Todos los días se anuncian nuevos LLM y nuevas formas de ajustar su contenido, al igual que nuevos productos de vendedores con contenido o enfoque de tareas específicos. Cualquier empresa que se comprometa a incorporar sus propios conocimientos en un sistema de IA generativa debería estar preparada para revisar su enfoque del tema con frecuencia durante los próximos años.

Si bien la creación y el uso de sistemas de IA generativa basados en el contenido de conocimiento de la propia empresa implican muchos desafíos difíciles, estamos seguros de que el beneficio general para la empresa vale la pena hacer frente a estos desafíos. La visión a largo plazo de permitir a cualquier empleado (y también a los clientes) acceder fácilmente a los conocimientos importantes dentro y fuera de la empresa para mejorar la productividad y la innovación es un gran atractivo. La IA generativa parece ser la tecnología que finalmente la hace posible.