LLM

01 - RAG Simples com Clojure e Ollama

RAG LLM AI Clojure
Um protótipo funcional do zero

Introdução

Olá, pessoal! 👋

Neste artigo, vamos explorar como construir uma aplicação RAG (Retrieval-Augmented Generation) completa do zero usando Clojure. Vamos mergulhar em uma implementação prática que combina processamento de texto, busca semântica e geração de respostas com LLMs locais. Se você está interessado em melhorar a precisão e relevância das respostas dos seus modelos de linguagem com informações atualizadas, este guia é para você!

Fundamentos do RAG

O que é RAG?

Os Modelos de Linguagem de Grande Escala (LLMs), como o GPT, ChatGPT e outros, revolucionaram a forma como interagimos com a inteligência artificial. Eles são capazes de gerar textos coerentes, responder perguntas complexas e até mesmo criar conteúdo criativo. No entanto, esses modelos possuem uma limitação fundamental: seu conhecimento é “congelado” no tempo.

Leia mais →

Técnicas Avançadas para RAG em Produção

RAG LLM AI Optimização Produção PostgreSQL Ollama
Explorando técnicas para otimizar sistemas RAG para uso em produção

Introdução

Olá pessoal! 👋

Nos artigos anteriores, exploramos como implementar um RAG básico em Clojure em memória e como construir um sistema de busca semântica com PostgreSQL e Ollama. Agora, vamos dar o próximo passo: transformar nosso protótipo em um sistema RAG pronto para produção.

Como muitos desenvolvedores já descobriram, criar um protótipo funcional de RAG com alguns documentos é relativamente simples. O verdadeiro desafio começa quando precisamos escalar esse sistema para lidar com milhares de documentos, garantir respostas precisas e manter o desempenho sob carga. Neste artigo, vamos explorar técnicas avançadas para superar esses desafios e levar nosso DocAI para um novo patamar de qualidade e confiabilidade.

Leia mais →