AI
RAG
Retrieval-Augmented Generation
Overblik
Retrieval-Augmented Generation (RAG) kombinerer en sprogmodel med et søgesystem for at forankre output i specifikke, opdaterede dokumenter. I stedet for udelukkende at stole på parametrisk viden i modelsvægte, henter RAG dynamisk relevante afsnit fra en vektordatabase eller søgeindeks og videregiver dem som kontekst til LLM'en.
Nøglekoncepter
- Forespørgselsindkodning: indlejrer brugerspørgsmålet i en vektor
- Søgning: finder semantisk lignende dokumenter fra en vektordatabase
- Kontekstinjektion: tilføjer hentede afsnit til LLM-prompten
- Generering: LLM'en svarer forankret i hentet bevis
- Valgfrit: post-søgning reranking for præcisionsforbedring
Fakta
- RAG blev introduceret af Lewis et al. ved Facebook AI Research i 2020
- Det reducerer hallucinationer ved at levere verificerbart kildemateriale
- Hybrid RAG kombinerer tæt søgning med nøgleordssøgning (BM25)
- RAG bruges udbredt i virksomhedsvidensbaser, juridisk forskning og medicinsk AI