Jak wdrożyć asystenta zakupowego na LLM bez halucynacji: RAG + katalog + polityki odpowiedzi

Redakcja

19 sierpnia, 2025

Asystenci zakupowi oparte na dużych modelach językowych to dziś realne narzędzie przewagi konkurencyjnej, nie science fiction. Problem? Halucynacje AI – czyli wymyślanie przez model informacji, których nie ma w rzeczywistości – w e-commerce kosztują znacznie więcej niż tylko wiarygodność. Obiecanie nieistniejącej promocji, polecenie produktu spoza magazynu czy podanie błędnych warunków zwrotu to prosta droga do utraty zaufania klienta i potencjalnych roszczeń.

Dlaczego LLM halucynuje i co to oznacza dla sklepu

W praktyce halucynacje LLM w e-commerce przybierają różne formy: rekomendowanie produktów spoza katalogu, podawanie nieprawidłowych parametrów technicznych, wymyślanie warunków dostawy. Polskie testy asystentów AI wykazały przypadki kierowania klientów na strony 404 i oferty nieistniejących produktów – absolutna porażka z punktu widzenia user experience.

Badania pokazują jednak, że odpowiednio skonfigurowany RAG (Retrieval-Augmented Generation) potrafi obniżyć odsetek halucynacji nawet o ponad 40% w porównaniu do “czystego” LLM (JISEM Journal). W środowiskach wymagających najwyższej precyzji, takich jak medycyna, wykorzystanie kuratorowanych źródeł informacji zredukowało halucynacje do poziomu 0–6% odpowiedzi, podczas gdy modele generatywne bez RAG osiągały aż 40% błędnych zapytań (JMIR Cancer).

Kluczem jest połączenie trzech elementów: architektury RAG, zoptymalizowanego katalogu produktowego oraz ścisłych polityk odpowiedzi.

Fundament: RAG w zamkniętej domenie

Retrieval-Augmented Generation to podejście, w którym LLM nie odpowiada wyłącznie “z głowy”, ale najpierw otrzymuje kontekst z zewnętrznej bazy wiedzy. W e-commerce oznacza to indeksowanie:

  • opisów i specyfikacji produktów,
  • regulaminów i polityk sklepu,
  • FAQ i dokumentacji wsparcia.

System wyszukuje najbardziej pasujące fragmenty dla danego pytania i dopiero wtedy generuje odpowiedź wyłącznie na podstawie dostarczonego kontekstu.

Najważniejszą praktyką jest zamknięta domena (closed-domain RAG) – model ma prawo opierać się tylko na treściach z bazy sklepu, bez dostępu do “otwartego internetu”. To radykalnie zmniejsza ryzyko wymyślonych danych, szczególnie w zakresie cen, dostępności i warunków zwrotu.

Protip: Już na etapie projektowania zdecyduj, czy asystent ma działać w trybie “tylko dane sklepu” czy również korzystać z zewnętrznych źródeł (np. recenzje). To całkowicie zmienia strategię kontroli halucynacji i odpowiedzialności prawnej za odpowiedzi.

Katalog produktowy jako paliwo dla RAG

W nowoczesnych rozwiązaniach, takich jak CatalogRAG stosowany przez duże marketplace’y, katalog produktowy stanowi główne źródło wiedzy dla LLM. Badania Amazon Science pokazują, że odpowiednio zaprojektowany RAG oparty na katalogu zwiększa kompletność atrybutów produktowych o ponad 40%, jednocześnie poprawiając ich poprawność.

Wymagania wobec katalogu:

  • normalizacja atrybutów – spójne formaty rozmiarów, kolorów, jednostek miar,
  • jednolity schemat kategorii i typów produktów,
  • multimodalność – opisy tekstowe, zdjęcia, tabele, instrukcje PDF jako źródła danych.

Im bardziej uporządkowany katalog, tym precyzyjniejsze wyszukiwanie podobnych produktów i lepsza jakość rekomendacji bez halucynacji.

Pipeline RAG krok po kroku

Etap Co się dzieje Zabezpieczenia anty-halucynacyjne
1. Przyjęcie zapytania Użytkownik pisze np. “szukam lekkiej kurtki na rower na jesień, max 400 zł” Parsowanie intencji, wykrycie języka i kontekstu klienta
2. Wzbogacenie zapytania System dodaje kontekst: lokalna waluta, dostępne kategorie, historia zakupów Ograniczenie do dostępnych kategorii, filtr “tylko w magazynie”
3. Retrieval Wyszukiwanie w bazie wektorowej produktów i dokumentów (FAQ, polityki) Filtry biznesowe (cena, dostępność, kraj wysyłki), próg podobieństwa
4. Kontekst dla LLM Agregacja 5–20 najbardziej trafnych rekordów Limit długości, priorytet aktualnych źródeł (nowsze ceny)
5. Generowanie LLM dostaje prompt: “odpowiadaj tylko na podstawie kontekstu” Zasady odmawiania, format JSON z listą rekomendacji
6. Walidacja Sprawdzenie, czy odpowiedź nie wykracza poza kontekst i polityki Filtrowanie linków, weryfikacja istnienia produktów

Protip: Zanim wdrożysz pełny pipeline, zbuduj “sandbox RAG” na jednej kategorii (np. elektronika) i zbieraj przykłady halucynacji – posłużą do trenowania klasyfikatorów i doprecyzowania promptów.

Polityki odpowiedzi: gdy AI wie, że nie wie

Badania nad RAG pokazują, że największa poprawa jakości wynika z tego, że chatbot ma prawo powiedzieć “nie wiem”, gdy nie znajduje wiarygodnego kontekstu. W systemach komercyjnych stosuje się formalne polityki odpowiedzi, określające:

  • kiedy LLM ma odpowiedzieć w oparciu o katalog i regulaminy,
  • kiedy zadać pytanie doprecyzowujące,
  • kiedy odmówić odpowiedzi i przekierować do człowieka.

Kluczowe typy polityk:

Polityka niepewności – jeśli zbieżność wyszukanych dokumentów spada poniżej progu, asystent informuje o niepewności i proponuje kontakt z obsługą.

Polityka zakresu – asystent nie komentuje tematów spoza domeny sklepu (np. porad medycznych przy suplementach, interpretacji prawnych).

Polityka cen i promocji – odpowiadanie tylko na podstawie świeżych danych z systemu transakcyjnego, nigdy “z pamięci”.

Prompt gotowy do wykorzystania

Jeśli chcesz przetestować, jak zaprojektować politykę odpowiedzi dla swojego asystenta, skopiuj poniższy prompt i wklej go do ChatGPT, Gemini lub Perplexity. Możesz też skorzystać z naszych autorskich generatorów biznesowych dostępnych w sekcji narzędzia lub kalkulatorów branżowych kalkulatory.

Jesteś ekspertem od projektowania asystentów AI dla e-commerce. 
Przygotuj zestaw polityk odpowiedzi dla asystenta zakupowego w sklepie 
sprzedającym [KATEGORIA_PRODUKTÓW]. 

Sklep obsługuje rynek [KRAJ/REGION] i ma [LICZBA_PRODUKTÓW] produktów w ofercie.

Uwzględnij:
1. Politykę niepewności (kiedy asystent ma odmówić odpowiedzi)
2. Politykę zakresu (tematy, na które NIE może odpowiadać)
3. Politykę cen i promocji
4. Przykłady komunikatów dla klienta w każdej sytuacji

Format: konkretne zasady + przykłady dialogów.

Zmienne do wypełnienia:

  • [KATEGORIA_PRODUKTÓW] – np. “elektronika użytkowa”,
  • [KRAJ/REGION] – np. “Polska”,
  • [LICZBA_PRODUKTÓW] – np. “5000”.

Guardrails: twarde zabezpieczenia przed halucynacjami

Nawet z RAG i politykami LLM może próbować “dopowiedzieć sobie” brakujące informacje. Dlatego w produkcyjnych systemach stosuje się dodatkowe warstwy bezpieczeństwa:

  • walidatory danych biznesowych – sprawdzanie, czy zwrócone ID produktów istnieją, czy ceny mieszczą się w realnym zakresie,
  • reguły treściowe – odpowiedzi nie mogą zawierać sformułowań “prawdopodobnie kosztuje”, “chyba jest dostępny”,
  • monitoring halucynacji – logowanie przypadków błędnych informacji i automatyczne tagowanie do analizy.

Metody takie jak ReDeEP (OpenReview) rozdzielają to, co pochodzi z zewnętrznego kontekstu, od parametrycznej wiedzy modelu, aby wykrywać halucynacje w odpowiedziach.

Protip: Przygotuj “zestaw testowy halucynacji” – zbiór pytań, na które system nie powinien znać odpowiedzi (np. “czy macie produkt X, którego nie ma w katalogu?”) i włącz go do regresyjnych testów automatycznych przy każdej aktualizacji.

Integracja z systemami transakcyjnymi

Jedna z głównych przyczyn halucynacji to brak dostępu do aktualnych danych operacyjnych. Jeżeli asystent odpowiada na podstawie wczorajszego indeksu, może polecać produkty już wyprzedane.

Rozwiązanie to podział na:

  • dane “wolniej zmienne” (opisy, parametry) w indeksie RAG,
  • ceny i stany magazynowe pobierane “live” z systemu ERP/PIM/WMS.

Filtry dostępności powinny działać już na etapie retrieval, a czasowe TTL dla wyników unikają cachowania nieaktualnych informacji.

UX: komunikacja niepewności bez psucia doświadczenia

Systemy, które uczciwie przyznają, iż czegoś nie wiedzą, są postrzegane jako bardziej wiarygodne. W asystencie zakupowym trzeba pogodzić konwersacyjność z transparentnością.

Zamiast suchego “nie wiem”:

  • “Na podstawie danych w naszym sklepie nie widzę takiego produktu. Mogę zaproponować coś zbliżonego…”,
  • “Nie mam pewności co do tej informacji. Proponuję kontakt z konsultantem.”,
  • “Jako asystent zakupowy mogę doradzić tylko w wyborze produktów, nie udzielam porad medycznych.”

Protip: Testuj różne wersje komunikatów odmawiających odpowiedź w A/B-testach – często bardziej “ludzki” ton przekłada się na lepsze wskaźniki satysfakcji niż suche “nie mogę odpowiedzieć”.

Metryki i monitoring

W środowisku produkcyjnym branża wypracowuje kombinację wskaźników:

  • odsetek odpowiedzi bez źródła – ile odpowiedzi nie udało się powiązać z żadnym produktem w indeksie,
  • liczba eskalacji do supportu związanych z błędnymi informacjami,
  • współczynnik korekty przez człowieka – jak często konsultant musi poprawiać odpowiedź w trybie “copilota”.

Efekty biznesowe: od technologii do ROI

Międzynarodowe case studies pokazują, że dobrze wdrożony asystent zakupowy oparty na LLM i RAG potrafi zwiększyć konwersję i średnią wartość koszyka o 25–30% (American Chase), głównie dzięki lepszym rekomendacjom i szybszemu prowadzeniu przez proces decyzyjny.

Typowe scenariusze zastosowania:

Interaktywny doradca produktowy – klient opisuje potrzeby językiem naturalnym, asystent przegląda katalog, porównuje, filtruje po budżecie.

Copilot dla supportu – agent pyta model o fragmenty regulaminu, specyfikacje, status zamówienia (po weryfikacji trafia do klienta).

Asystent posprzedażowy – pomoc w konfiguracji, dobór akcesoriów, rekomendacje uzupełniające na podstawie historii zakupów.

Protip: Zacznij od wąskiego scenariusza o dużej wartości biznesowej (np. doradca w jednej kluczowej kategorii o wysokiej marży) – łatwiej tam kontrolować jakość i policzyć ROI.

Jak to sprzedać wewnątrz organizacji

Dla zarządu kluczowe jest połączenie argumentów technologicznych z twardymi efektami biznesowymi. Celem nie jest “magiczny chatbot”, ale skalowalny, kontrolowalny kanał sprzedaży, który:

  • zmniejsza presję na support (część pytań obsługiwana automatycznie),
  • zwiększa konwersję dzięki trafniejszym rekomendacjom opartym na realnych danych,
  • ogranicza ryzyka prawne (błędne informacje) dzięki zamkniętej domenie i guardrails.

Wdrożenie asystenta zakupowego na LLM bez halucynacji to nie kwestia wyboru jednej technologii, lecz przemyślanej architektury łączącej RAG, zoptymalizowany katalog, polityki odpowiedzi i twarde zabezpieczenia. W świecie, gdzie każda błędna rekomendacja kosztuje zaufanie klienta, inwestycja w kontrolę jakości odpowiedzi AI to nie luksus – to konieczność dla każdego sklepu stawiającego na przewagę technologiczną.

Wypróbuj bezpłatne narzędzia

Skorzystaj z narzędzi, które ułatwiają codzienna pracę!

Powiązane tematy

Powiązane wpisy