El Agente de Investigación Abordando el Desafío de Responder Preguntas Basadas en un Gran Corpus de Texto

Agente de Investigación abordando preguntas en gran corpus de texto

He creado un Agente de Investigación de IA Autónomo que puede responder preguntas difíciles con capacidades de razonamiento profundo de múltiples pasos

Imagen del Autor (Generada usando Photoshop Generative fill)

Introducción al problema

En 2021, comencé a trabajar en el desafío de responder preguntas basadas en un gran corpus de texto. En la era anterior a los transformers pre-entrenados, este problema era difícil de resolver.

Y para mi frustración, comencé mis experimentos con una de las historias más complejas e intrincadas jamás escritas, el Mahabharata. Para aquellos que no están familiarizados con la obra, el Mahabharata es una colección de 18 libros con un total de alrededor de 1.8 millones de palabras. Es el poema más largo jamás escrito con alrededor de 90,000 versos. Es aproximadamente diez veces más largo que la Ilíada y la Odisea combinadas. Pero no solo es la longitud, sino también la amplitud del Mahabharata lo que es asombroso. Altamente no lineal y complejo en sus causas y efectos, tiene miles de personajes que abarcan siete generaciones, y de esos, ninguno es completamente bueno o malo. Tiene profundos comentarios filosóficos sobre el deber (Karma), las elecciones y la existencia humana, especialmente sobre los conflictos de deberes y las elecciones entre varios males. El Bhagavad Gita (Filosofía clave del Hinduismo) también es parte del sexto libro del Mahabharata.

Compilé los datos de texto del Mahabharata de múltiples fuentes en línea en un conjunto de datos limpio. Sin embargo, no pude encontrar un método para implementar preguntas y respuestas significativas sobre el texto.

En menos de dos años, todo eso cambió.

Los avances rápidos en IA y los transformers pre-entrenados están cambiando el mundo de la tecnología de manera profunda y fundamental. Y estoy fascinado por ello, al igual que la mayoría de los técnicos en estos días.

Entonces, hace unos meses, volví al problema con un conocimiento ingenuo del arte recién nacido de la ingeniería de estímulos. Pero esta vez con una idea general de hacer un Agente de Investigación Autónomo que pueda trabajar con cualquier base de conocimiento compleja.

El Mahabharata es uno de los casos de uso más complejos. Sin embargo, en cada dominio del conocimiento, Derecho, Investigación científica, Educación, Medicina, etc., cada proyecto comienza con una investigación profunda sobre el estado del arte anterior. Por lo tanto, el problema merece ser resuelto.

El Agente de Investigación

Aquí discutiré el diseño e implementación de un Agente de Investigación de IA Autónomo que puede resolver el problema de KBQA de múltiples pasos con capacidad de razonamiento profundo. Compartiré el repositorio git con una implementación inicial del agente de investigación en un cuaderno de Python. Si solo estás interesado en esa parte, siéntete libre de saltar a la sección de Implementación más adelante en este artículo.

Si estás interesado en saber más sobre el Agente de IA, ‘Pregunta y Respuesta Basada en el Conocimiento’ (KBQA), el ‘Por qué’, el ‘Qué’ y la evolución del diseño del Agente de Investigación de IA, entonces sigue leyendo.

¿Por qué?

La primera pregunta que uno puede hacer es por qué no usar simplemente la interfaz ChatGPT y hacer preguntas. Ha sido entrenado con un volumen enorme de datos de Internet generado hasta 2021, por lo que se supone que conoce un corpus de texto como el Mahabharata.

Ese fue mi primer enfoque. Hice varias preguntas al ChatGPT sobre el Mahabharata. Obtuve buenas respuestas a algunas preguntas. Sin embargo, carecen de rigor en su mayoría. Y eso es esperado. El GPT está entrenado con conjuntos de datos generales. Puede entender e interpretar lenguajes naturales muy bien. También puede razonar lo suficiente. Sin embargo, no es un experto en ningún dominio específico. Entonces, aunque puede tener algún conocimiento sobre el Mahabharata, es posible que no responda con respuestas profundamente investigadas. A veces, el GPT puede no tener ninguna respuesta en absoluto. En esos casos, o bien se niega humildemente a responder la pregunta, o bien las inventa confiadamente (Alucinaciones).

La segunda forma más obvia de lograr KBQA es utilizar una Pregunta y Respuesta de Recuperación. Aquí es donde LangChain comienza a ser extremadamente útil.

Recuperación de preguntas y respuestas

Para aquellos que no estén familiarizados con la biblioteca LangChain, es una de las mejores formas de utilizar modelos de lenguaje con aprendizaje profundo como GPT en tu código. Aquí tienes una implementación de KBQA utilizando LangChain.

Preguntas y respuestas utilizando un recuperador | 🦜️🔗 Langchain

Este ejemplo muestra cómo responder preguntas sobre un índice.

python.langchain.com

En resumen, estos son los pasos para lograr KBQA en cualquier conjunto de documentos:

  • Dividir la base de conocimientos en fragmentos de texto.
  • Crear una representación numérica (incrustaciones) para cada fragmento y guardarlos en una base de datos de vectores. Si tus datos son estáticos, los pasos 1 y 2 son esfuerzos únicos.
  • Ejecutar una búsqueda semántica utilizando la consulta del usuario en esta base de datos y obtener fragmentos de texto relevantes.
  • Enviar estos fragmentos de texto al LLM junto con las preguntas del usuario y pedirle que responda.

Aquí tienes una representación gráfica de este proceso.

Imagen creada por el autor utilizando draw.io

Entonces, ¿por qué seguir adelante? ¡Parece ser un problema resuelto!

No del todo 🙁

Este enfoque funciona bien para preguntas simples sobre una base de conocimientos simple y factual. Sin embargo, no funciona para una base de conocimientos más compleja y preguntas más complicadas que requieren un razonamiento más profundo y de múltiples pasos. El razonamiento de múltiples pasos se refiere a un proceso en el que se toman múltiples pasos de inferencia lógica o contextual para llegar a una conclusión o respuesta a una pregunta.

Además, los LLMs están limitados en la longitud de texto que pueden procesar en una sola consulta. Por supuesto, puedes enviar los documentos uno por uno y luego “refinar” o “reducir” la respuesta con cada llamada. Sin embargo, este enfoque no permite un razonamiento complejo de “múltiples pasos”. En algunos casos, los resultados utilizando el enfoque de “refinar” o “reducir” son mejores que simplemente incluir todos los documentos en una sola consulta, pero no por mucho margen.

Para una base de conocimientos compleja, la pregunta del usuario por sí sola puede no ser suficiente para encontrar todos los documentos relevantes que pueden ayudar al LLM a llegar a una respuesta precisa.

Por ejemplo:

¿Quién fue Arjuna?

Esta es una pregunta simple y se puede responder con un contexto limitado. Sin embargo, la siguiente pregunta:

¿Por qué ocurrió la guerra de Mahabharata?

Es una pregunta que tiene su contexto disperso por todo el corpus de texto. La pregunta en sí misma tiene información limitada sobre su contexto. Encontrar los fragmentos de texto relevantes y luego razonar basándose en eso puede no funcionar.

Entonces, ¿qué sigue?

Agentes de IA

Este es uno de los conceptos más geniales que ha surgido después de la aparición de la IA. Si no conoces el concepto de un agente de IA, no puedo esperar para explicártelo, pero aún puedo fallar en transmitir su grandeza. Permíteme explicarlo primero utilizando ChatGPT.

Un agente de IA, también conocido simplemente como “agente”, se refiere a un programa o sistema de software que puede percibir de manera autónoma su entorno, tomar decisiones y tomar acciones para alcanzar objetivos específicos. Los agentes de IA están diseñados para imitar el comportamiento similar al humano en tareas de resolución de problemas y toma de decisiones. Operan dentro de un entorno definido e interactúan con ese entorno para lograr resultados deseados.

Hablando en términos simples, un agente es un programa que toma un problema, decide cómo resolverlo y luego lo resuelve. Al agente se le proporciona un conjunto de herramientas como funciones, métodos, llamadas a API, etc. Puede usar cualquiera de ellas si decide hacerlo en cualquier secuencia que considere adecuada. En contraste con el software convencional, donde la secuencia de pasos necesarios para resolver el problema está preprogramada. Esta es, por supuesto, una definición muy vaga. Pero probablemente ya estés entendiendo la idea.

Aquí tienes los dos agentes diferentes que probé para nuestro caso de uso de KBQA.

React Este agente utiliza un estilo de razonamiento llamado “ReAct” (Reason and Action) para decidir qué herramienta utilizar para el problema dado.

Aquí está la implementación de langChain de un agente ReAct:

ReAct | 🦜️🔗 Langchain

Este recorrido muestra cómo utilizar un agente para implementar la lógica ReAct.

python.langchain.com

Proporcioné al agente las siguientes herramientas para elegir:

  • Cadena de preguntas y respuestas con un almacén de documentos.
  • La búsqueda de glosarios de personajes (creé un glosario con reconocimiento de entidades nombradas utilizando un modelo preentrenado)
  • Búsqueda en Wikipedia.

El agente de ReAct no me dio buenos resultados y no logró converger a ninguna respuesta la mayoría de las veces. No funciona bien con GPT 3.5. Puede que funcione mejor con GPT 4, que es de 20-30 veces más caro que GPT 3.5, por lo que puede que esa no sea una opción aún.

Incluso cuando convergía, no podía obtener buenos resultados. Alguien con más conocimientos en la creación de indicaciones ‘react’ probablemente lo habría hecho mejor.

Agente de Auto-PreguntasEste agente hace preguntas de seguimiento basadas en la pregunta original y luego intenta encontrar las respuestas intermedias. Utilizando estas respuestas intermedias, finalmente llega a una respuesta final. Aquí hay un artículo que explica el Agente de Auto-Preguntas

Inducción de Auto-Preguntas

La Inducción de Auto-Preguntas es una progresión del estímulo Chain Of Thought. A continuación se presentan algunos ejemplos prácticos y un…

cobusgreyling.medium.com

Este enfoque me dio algunos buenos resultados. Funciona bien para una razón de un solo salto. Pero incluso esto falla para preguntas que requieren múltiples saltos.

Por ejemplo, las preguntas:

¿Quién mató a Karna y por qué?

Es relativamente fácil de responder con este enfoque.

La pregunta

¿Por qué Arjuna mató a Karna, su medio hermano?

Es mucho más difícil de responder. Requiere que el LLM sepa el hecho de que Arjuna no sabía que Karna era su medio hermano. El LLM no puede saber que necesita saber este hecho, ya sea comprendiendo la pregunta o haciendo más preguntas basadas en la pregunta original.

Proceso de Investigación Humana

Citando nuevamente a GPT

Los agentes de IA están diseñados para imitar el comportamiento similar al humano en tareas de resolución de problemas y toma de decisiones

Así que, mi siguiente idea fue investigar cómo investigan los humanos, la meta-investigación si se quiere. Me imaginé a mí mismo sentado en una biblioteca (nostalgia universitaria) con fácil acceso a todos los libros relevantes para el tema de mi investigación. Tomé un cuaderno y un bolígrafo y comencé a anotar el proceso que sigo cuando investigo un tema.

Esto es lo que se me ocurrió.

Metodología de investigación:

Tomar nota de la consulta original en una página.

  1. Intento responder la pregunta actual leyendo unos pocos libros. En el proceso, hago algunas notas y marco algunos fragmentos que considero más relevantes para la pregunta actual.
  2. Invariablemente, encuentro muchas incógnitas en estos fragmentos. Anoto estas incógnitas y escribo algunas preguntas más que pueden ayudarme a aprender sobre estas incógnitas.
  3. De estas preguntas, elijo una pregunta que sea más pertinente a la pregunta original.
  4. Vuelvo al paso 1

Después de algunas iteraciones como estas, me pregunto si tengo suficiente información para responder la pregunta original.

Si sí, ¡bien hecho! Si no, ¡sigue trabajando.

¡Voilá!

Finalmente, supe qué codificar. Esperaba que, con un poco de ingeniería en las indicaciones, este proceso pudiera darme respuestas más profundas que cualquiera de los otros enfoques que había intentado anteriormente.

¡Alerta de spoiler… así fue! 🙂

Antes de sentarme a codificar, busqué en internet ideas similares. Y descubrí el BabyAGI. ¡Qué mundo maravilloso!

Aquí hay un repositorio que describe el BabyAGI

Me di cuenta de que había muchas similitudes entre el BabyAGI y el proceso de investigación anterior. Así que, con gratitud, tomé algo de inspiración de los estímulos utilizados en la implementación del BabyAGI.

La implementación del Agente de Investigación

Aquí está el mismo proceso convertido en un diagrama de flujo utilizando la increíble herramienta draw.io

Imagen del Autor (Generada usando draw.io)

Cada cuadro azul en este diagrama es una llamada a un LLM.

Componentes

  1. Agente de QA — Busca respuestas y contexto adicionalEste es una cadena simple de preguntas y respuestas que utiliza un vector store. En el futuro, esto puede ser un Agente de Inteligencia Artificial que utilice herramientas como vector stores, API de búsqueda o API de Wikipedia, API de Moderación y datos de investigaciones anteriores. La consigna aquí está ajustada para generar respuestas concisas basadas en 1. el contexto (documentos) y 2. la pertinencia a la pregunta original. Excepto en el primer bucle, la pregunta actual siempre es una pregunta intermedia generada en el paso 2 y seleccionada en el paso 3. El Agente agrega la respuesta intermedia a las notas y los fragmentos más recientes (los documentos utilizados para responder la pregunta actual) a los marcadores. Los documentos más recientes de estos se utilizan en el paso 2.
  2. Generador de Preguntas — Hacer más preguntas basadas en las notas actualesAquí, el agente utiliza los resultados de búsqueda de vectores más recientes que coinciden con la pregunta actual y los utiliza para generar más preguntas pertinentes a la pregunta original. Agrega estas preguntas a la lista de preguntas sin respuesta. La consigna aquí está ajustada de manera que las preguntas recién generadas no se superpongan con la lista existente de preguntas.
  3. Selector de Pregunta Más Pertinente — Seleccionar una pregunta más pertinente a la pregunta originalEste selector elige una pregunta de la lista de preguntas sin respuesta que es la más pertinente a la pregunta original. Esta pregunta se utiliza como la pregunta actual para el siguiente bucle. En el siguiente bucle, el agente elimina esta pregunta de la lista de preguntas sin respuesta después de generar un nuevo conjunto de preguntas.
  4. Analisador — ¿Tengo suficiente información?Estoy utilizando un parámetro max_iterations para salir del bucle. Esto funciona bastante bien por ahora. Sin embargo, podría ser mejor decidir dinámicamente el número de iteraciones o una estrategia de salida en función del contexto en evolución. Trabajaré en un ‘analizador’ que pueda hacer esto autónomamente en el futuro.
  5. Compilador de Investigación — Compilar la investigaciónEsta es la consigna final. Utiliza las notas realizadas durante el proceso de investigación para llegar a una `respuesta final` elaborada a las `preguntas originales`.

Resultados

El Agente de Investigación es una gran mejora en comparación con todos los enfoques anteriores que he probado. Proporciona respuestas más detalladas y precisas que cualquier otro enfoque. He estado trabajando con esto durante algunas semanas y me sorprende la riqueza de las respuestas que obtengo.

El Agente evita en mayor medida el problema de las alucinaciones en comparación con cualquier enfoque anterior. Corrige automáticamente las alucinaciones y los errores de hecho que genera en las primeras iteraciones, durante las posteriores. Cuanto más se adentra en un problema, más precisamente produce el resultado.

Aquí hay un ejemplo de ejecución.

Preguntas: ¿Por qué tuvieron que vivir los Pandavas en el bosque durante 12 años?

Salida —

Por si acaso tienes curiosidad, aquí está la respuesta final

Respuesta Final: La decisión de los Pandavas de vivir en el bosque durante 12 años se debió principalmente a las circunstancias y eventos que se desarrollaron en sus vidas. Después de perder un juego de dados contra los Kauravas, los Pandavas fueron obligados al exilio durante 13 años, siendo el último año para ser pasado de incógnito. Durante su exilio, enfrentaron numerosos desafíos y dificultades, incluyendo vivir en el bosque.Bhima consideró matar a todos los Kurus, pero su hermano Yudhisthira siempre lo apaciguó, afirmando que no era el momento oportuno para cumplir sus deseos. Así, vivir en el bosque les permitió evitar confrontaciones y mantener la paz.Durante su tiempo en el bosque, los Pandavas enfrentaron varias dificultades. Uno de los principales desafíos fue la lucha de Bhima para tolerar la vida ascética. Consideró matar a todos los Kurus, pero su hermano Yudhisthira siempre lo apaciguó y le aconsejó en contra de ello. Además, los Pandavas tuvieron que vivir en el bosque y depender de la mendicidad para su sustento, ya que su reino había sido saqueado en el juego de azar. Estaban angustiados por la pérdida de su reino y los insultos a su reina Draupadi. El bosque en sí también estaba lleno de peligros, lo que añadía a sus dificultades. Además, los Pandavas se sentían incapaces de satisfacer las necesidades de ciertos Brahmanas piadosos que se quedaron con ellos en el bosque, ya que no poseían nada y dependían de la mendicidad para su propia supervivencia.A pesar de estos desafíos, los Pandavas aprovecharon al máximo su tiempo en el bosque. Recibieron conocimiento de los sabios y personas santas, lo que les ayudó a adquirir sabiduría y percepciones espirituales. El gran sabio Vyasa les informó que muchos generales habían acordado apoyar a su primo Duryodhana, incluyendo a Karna, Shakuni, Bhurishravas, Sala, Drona y Bhishma. Vyasa también le dijo a Arjuna que si iba a luchar en una guerra futura, necesitaría obtener las astra divinas del Señor Indra y el Señor Shiva.Teniendo en cuenta esta información, Yudhisthira ordenó a Arjuna que fuera a las montañas del Himalaya para realizar austeridades y complacer al Señor Shiva. Esto era necesario para que Arjuna obtuviera las armas divinas que serían cruciales en la próxima guerra. Los Pandavas entendieron la importancia de estar preparados y reunir los recursos necesarios para contrarrestar la fuerza de sus oponentes. Por lo tanto, Yudhisthira tomó la decisión de enviar a Arjuna en esta misión para buscar las bendiciones del Señor Shiva y adquirir las astra divinas.En general, el exilio de los Pandavas en el bosque durante doce años fue el resultado de las condiciones impuestas a ellos después de perder el juego de dados. Enfrentaron diversas dificultades durante su tiempo en el bosque, pero también adquirieron conocimientos valiosos y se prepararon para los desafíos que les esperaban.

Esta respuesta es bastante elaborada. Pero la belleza del agente no es solo que respondió la pregunta original de manera precisa, sino que fue más allá y descubrió la historia que rodea la pregunta.

En la mayoría de los casos, las respuestas que obtengo son ricas en detalles como estos. Y cada respuesta de este tipo inspira mi curiosidad para una investigación más profunda.

El agente también proporciona un conjunto de preguntas respondidas y preguntas sin respuesta que anota durante el proceso de investigación. Así que después de cada ejecución, me lleva a muchas otras preguntas que puedo hacer. En las últimas semanas, he aprendido más sobre el Mahabharata de lo que aprendí en muchos años antes.

** Preguntas sin respuesta **'4. ¿Cómo recibieron los Pandavas conocimiento de los sabios y personas santas durante su tiempo en el bosque?''5. ¿Cuáles fueron las austeridades específicas que Arjuna tuvo que realizar en las montañas del Himalaya para complacer al Señor Shiva?''6. ¿Cómo lograron los Pandavas ocultarse de los espías de Duryodhana durante casi todo el decimotercer año de su exilio?''8. ¿Cómo se enfrentó Bhima a los desafíos de vivir como un asceta en el bosque? ¿Enfrentó alguna dificultad o lucha particular durante su tiempo en el exilio?''9. ¿Puede proporcionar más información sobre los generales que apoyaron la causa de Duryodhana? ¿Cuáles fueron sus roles y contribuciones en la guerra de Kurukshetra?''10. ¿Cómo lograron los Pandavas mantener una vida pacífica en el bosque a pesar de los desafíos que enfrentaron?''11. ¿Cuáles fueron las enseñanzas y conocimientos específicos que los Pandavas recibieron de los sabios y personas santas durante su tiempo en el bosque?''12. ¿Puede proporcionar más información sobre el palacio donde vivieron los Pandavas durante un año completo antes de ir al bosque?''13. ¿Cómo afectó la presencia del Señor Krishna en el bosque a la experiencia de los Pandavas durante su exilio?''14. ¿Puede proporcionar más información sobre los peligros a los que se enfrentaron los Pandavas mientras vivían en el bosque?''15. ¿Cuáles fueron los desafíos y dificultades específicos que Yudhisthira y sus hermanos enfrentaron en su vida diaria como habitantes del bosque?'

¡Imagina seguir el mismo proceso para otros dominios de conocimiento, qué pensamiento tan emocionante!

El Código

Y aquí están los cuadernos de Python con la implementación del Agente de Investigación.

GitHub – rahulnyk/research_agent

Contribuye al desarrollo de rahulnyk/research_agent creando una cuenta en GitHub.

github.com

El repositorio Git del conjunto de datos del Mahabharata

GitHub – rahulnyk/mahabharata: Texto del Mahabharata compilado a partir de múltiples fuentes, dividido en fragmentos…

El texto del Mahabharata se compila a partir de múltiples fuentes, se divide en fragmentos y se analiza en archivos CSV con metadatos. Entidades con nombre…

github.com

¿Qué sigue?

La implementación actual es una versión simple de la idea de un Agente de Investigación de IA autónomo. He vuelto a realizar el proceso de investigación varias veces a lo largo de la implementación del agente. Ha sido un viaje emocionante, pero la diversión aún no ha terminado. Aquí hay algunas de las mejoras en las que estoy trabajando actualmente.

  • Implementar este agente en un enlace público y observar más patrones de uso.
  • Usar el agente con documentos fuente diferentes al Mahabharata.
  • El paso 1 del proceso es actualmente una cadena de preguntas y respuestas “stuff” que utiliza un almacén de vectores con el corpus de texto fuente. Estoy trabajando para reemplazarlo con un Agente “ReAct” para que se puedan utilizar otras herramientas como API de búsqueda, Wikipedia, API de moderación, etc., en el proceso de investigación.
  • Estoy guardando los datos y metadatos generados durante cada ejecución en un almacén de vectores llamado “runs”. También estoy guardando los embeddings de la pregunta original en el mismo almacén. Esto me ha ayudado a seguir el razonamiento del agente y observar varios patrones lógicos que surgen de él. Esto puede ayudar a ajustar el agente de preguntas y respuestas para seguir un camino de razonamiento más sólido.
  • Actualmente, el Agente de Investigación termina después de un conjunto fijo de iteraciones. Esto funciona bastante bien para la mayoría de las preguntas. Sin embargo, podría ser mejor decidir dinámicamente el número de iteraciones o una estrategia de salida basada en el contexto en evolución. Trabajaré en un “analizador” que pueda hacer esto de manera autónoma.
  • El agente funciona bien para la mayoría de los tipos de preguntas, excepto las meta-preguntas. Por ejemplo, si pregunto “Describe lo que sucede en el libro 5, capítulo 3”, el agente tiene dificultades para responder. En futuras versiones, incluiré un recuperador de autoconsulta con el Agente “ReAct” para tratar estos casos.
  • Hasta ahora, solo he probado el Agente de Investigación con el modelo OpenAI GPT3.5. Me cuesta alrededor de $0.02 por ejecución. Pronto probaré el Agente de Investigación con un modelo más pequeño como Llama, que se puede alojar localmente.

En el próximo artículo, planeo escribir sobre mis hallazgos después de implementar algunas de estas actualizaciones. La idea principal es crear un Agente de Investigación de IA Autónomo de primera categoría que pueda destacar en encontrar respuestas profundamente investigadas a preguntas difíciles. Entonces, por favor, siéntase libre de sugerir y, si es posible, asociarse conmigo para madurar esto aún más.

Espero que encuentres útil este artículo y el código compartido.

Gracias por leer.

Espero que encuentres emocionante y útil el Agente de Investigación de IA.

El cuaderno que compartí es solo una implementación simple de esta idea más grande de crear un Agente de Investigación de IA Autónomo. Se puede hacer mucho más para convertir a este Agente en un investigador de primer nivel.

Entonces, por favor, siéntase libre de sugerir y, si es posible, asociarse conmigo para madurar esto aún más.

Gracias por leer.

Créditos para los conjuntos de datos que utilicé en el artículo anterior, junto con la información de licencia.

  1. Traducción completa por K. M. Ganguli: Disponible en el dominio público.
  2. Laura Gibbs Tiny Tales: Esta es una reinterpretación del Mahabharata utilizando doscientos episodios de cien palabras cada uno. Estoy utilizando su trabajo aquí con su permiso.
  3. Repositorio de datos de Kaggle por Tilak: Todos los 18 Parvas del Mahabharata en formato de texto para NLP. Compartido con licencia de dominio público por Tilak

We will continue to update Zepes; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more

Inteligencia Artificial

Sistemas de IA Sesgos desenterrados y la apasionante búsqueda de la verdadera equidad

La Inteligencia Artificial (IA) ya no es un concepto futurista, se ha convertido en una parte intrínseca de nuestras ...

Noticias de Inteligencia Artificial

El mercado oculto de China para las poderosas tarjetas Nvidia de inteligencia artificial

En las bulliciosas calles del área de electrónica de Huaqiangbei en Shenzhen, ha surgido un mercado subterráneo de ch...

Inteligencia Artificial

Investigadores de Microsoft proponen Síntesis Visual Responsable de Vocabulario Abierto (ORES) con el Marco de Intervención de Dos Etapas

Los modelos de síntesis visual pueden producir imágenes cada vez más realistas gracias al avance del entrenamiento de...

Inteligencia Artificial

Conoce FlexGen un motor de generación de alto rendimiento para ejecutar grandes modelos de lenguaje (LLM) con memoria limitada de GPU.

Recientemente, los modelos de lenguaje grandes (LLMs, por sus siglas en inglés) han mostrado un rendimiento impresion...

Inteligencia Artificial

Empresa derivada de la Universidad de Glasgow recauda $43 millones para 'Digitalizar la Química

Chemify, que se separó de la Universidad de Glasgow del Reino Unido en 2022, ha recibido $43 millones de financiamien...