Asystenci zakupowi oparte na dużych modelach językowych to dziś realne narzędzie przewagi konkurencyjnej, nie science fiction. Problem? Halucynacje AI – czyli wymyślanie przez model informacji, których nie ma w rzeczywistości – w e-commerce kosztują znacznie więcej niż tylko wiarygodność. Obiecanie nieistniejącej promocji, polecenie produktu spoza magazynu czy podanie błędnych warunków zwrotu to prosta droga do utraty zaufania klienta i potencjalnych roszczeń.
Dlaczego LLM halucynuje i co to oznacza dla sklepu
W praktyce halucynacje LLM w e-commerce przybierają różne formy: rekomendowanie produktów spoza katalogu, podawanie nieprawidłowych parametrów technicznych, wymyślanie warunków dostawy. Polskie testy asystentów AI wykazały przypadki kierowania klientów na strony 404 i oferty nieistniejących produktów – absolutna porażka z punktu widzenia user experience.
Badania pokazują jednak, że odpowiednio skonfigurowany RAG (Retrieval-Augmented Generation) potrafi obniżyć odsetek halucynacji nawet o ponad 40% w porównaniu do “czystego” LLM (JISEM Journal). W środowiskach wymagających najwyższej precyzji, takich jak medycyna, wykorzystanie kuratorowanych źródeł informacji zredukowało halucynacje do poziomu 0–6% odpowiedzi, podczas gdy modele generatywne bez RAG osiągały aż 40% błędnych zapytań (JMIR Cancer).
Kluczem jest połączenie trzech elementów: architektury RAG, zoptymalizowanego katalogu produktowego oraz ścisłych polityk odpowiedzi.
Fundament: RAG w zamkniętej domenie
Retrieval-Augmented Generation to podejście, w którym LLM nie odpowiada wyłącznie “z głowy”, ale najpierw otrzymuje kontekst z zewnętrznej bazy wiedzy. W e-commerce oznacza to indeksowanie:
opisów i specyfikacji produktów,
regulaminów i polityk sklepu,
FAQ i dokumentacji wsparcia.
System wyszukuje najbardziej pasujące fragmenty dla danego pytania i dopiero wtedy generuje odpowiedź wyłącznie na podstawie dostarczonego kontekstu.
Najważniejszą praktyką jest zamknięta domena (closed-domain RAG) – model ma prawo opierać się tylko na treściach z bazy sklepu, bez dostępu do “otwartego internetu”. To radykalnie zmniejsza ryzyko wymyślonych danych, szczególnie w zakresie cen, dostępności i warunków zwrotu.
Protip: Już na etapie projektowania zdecyduj, czy asystent ma działać w trybie “tylko dane sklepu” czy również korzystać z zewnętrznych źródeł (np. recenzje). To całkowicie zmienia strategię kontroli halucynacji i odpowiedzialności prawnej za odpowiedzi.
Katalog produktowy jako paliwo dla RAG
W nowoczesnych rozwiązaniach, takich jak CatalogRAG stosowany przez duże marketplace’y, katalog produktowy stanowi główne źródło wiedzy dla LLM. Badania Amazon Science pokazują, że odpowiednio zaprojektowany RAG oparty na katalogu zwiększa kompletność atrybutów produktowych o ponad 40%, jednocześnie poprawiając ich poprawność.
Wymagania wobec katalogu:
normalizacja atrybutów – spójne formaty rozmiarów, kolorów, jednostek miar,
jednolity schemat kategorii i typów produktów,
multimodalność – opisy tekstowe, zdjęcia, tabele, instrukcje PDF jako źródła danych.
Im bardziej uporządkowany katalog, tym precyzyjniejsze wyszukiwanie podobnych produktów i lepsza jakość rekomendacji bez halucynacji.
Pipeline RAG krok po kroku
Etap
Co się dzieje
Zabezpieczenia anty-halucynacyjne
1. Przyjęcie zapytania
Użytkownik pisze np. “szukam lekkiej kurtki na rower na jesień, max 400 zł”
Parsowanie intencji, wykrycie języka i kontekstu klienta
2. Wzbogacenie zapytania
System dodaje kontekst: lokalna waluta, dostępne kategorie, historia zakupów
Ograniczenie do dostępnych kategorii, filtr “tylko w magazynie”
3. Retrieval
Wyszukiwanie w bazie wektorowej produktów i dokumentów (FAQ, polityki)
Filtry biznesowe (cena, dostępność, kraj wysyłki), próg podobieństwa
4. Kontekst dla LLM
Agregacja 5–20 najbardziej trafnych rekordów
Limit długości, priorytet aktualnych źródeł (nowsze ceny)
5. Generowanie
LLM dostaje prompt: “odpowiadaj tylko na podstawie kontekstu”
Zasady odmawiania, format JSON z listą rekomendacji
6. Walidacja
Sprawdzenie, czy odpowiedź nie wykracza poza kontekst i polityki
Filtrowanie linków, weryfikacja istnienia produktów
Protip: Zanim wdrożysz pełny pipeline, zbuduj “sandbox RAG” na jednej kategorii (np. elektronika) i zbieraj przykłady halucynacji – posłużą do trenowania klasyfikatorów i doprecyzowania promptów.
Polityki odpowiedzi: gdy AI wie, że nie wie
Badania nad RAG pokazują, że największa poprawa jakości wynika z tego, że chatbot ma prawo powiedzieć “nie wiem”, gdy nie znajduje wiarygodnego kontekstu. W systemach komercyjnych stosuje się formalne polityki odpowiedzi, określające:
kiedy LLM ma odpowiedzieć w oparciu o katalog i regulaminy,
kiedy zadać pytanie doprecyzowujące,
kiedy odmówić odpowiedzi i przekierować do człowieka.
Kluczowe typy polityk:
Polityka niepewności – jeśli zbieżność wyszukanych dokumentów spada poniżej progu, asystent informuje o niepewności i proponuje kontakt z obsługą.
Polityka zakresu – asystent nie komentuje tematów spoza domeny sklepu (np. porad medycznych przy suplementach, interpretacji prawnych).
Polityka cen i promocji – odpowiadanie tylko na podstawie świeżych danych z systemu transakcyjnego, nigdy “z pamięci”.
Prompt gotowy do wykorzystania
Jeśli chcesz przetestować, jak zaprojektować politykę odpowiedzi dla swojego asystenta, skopiuj poniższy prompt i wklej go do ChatGPT, Gemini lub Perplexity. Możesz też skorzystać z naszych autorskich generatorów biznesowych dostępnych w sekcji narzędzia lub kalkulatorów branżowych kalkulatory.
Jesteś ekspertem od projektowania asystentów AI dla e-commerce.
Przygotuj zestaw polityk odpowiedzi dla asystenta zakupowego w sklepie
sprzedającym [KATEGORIA_PRODUKTÓW].
Sklep obsługuje rynek [KRAJ/REGION] i ma [LICZBA_PRODUKTÓW] produktów w ofercie.
Uwzględnij:
1. Politykę niepewności (kiedy asystent ma odmówić odpowiedzi)
2. Politykę zakresu (tematy, na które NIE może odpowiadać)
3. Politykę cen i promocji
4. Przykłady komunikatów dla klienta w każdej sytuacji
Format: konkretne zasady + przykłady dialogów.
Zmienne do wypełnienia:
[KATEGORIA_PRODUKTÓW] – np. “elektronika użytkowa”,
[KRAJ/REGION] – np. “Polska”,
[LICZBA_PRODUKTÓW] – np. “5000”.
Guardrails: twarde zabezpieczenia przed halucynacjami
Nawet z RAG i politykami LLM może próbować “dopowiedzieć sobie” brakujące informacje. Dlatego w produkcyjnych systemach stosuje się dodatkowe warstwy bezpieczeństwa:
walidatory danych biznesowych – sprawdzanie, czy zwrócone ID produktów istnieją, czy ceny mieszczą się w realnym zakresie,
reguły treściowe – odpowiedzi nie mogą zawierać sformułowań “prawdopodobnie kosztuje”, “chyba jest dostępny”,
monitoring halucynacji – logowanie przypadków błędnych informacji i automatyczne tagowanie do analizy.
Metody takie jak ReDeEP (OpenReview) rozdzielają to, co pochodzi z zewnętrznego kontekstu, od parametrycznej wiedzy modelu, aby wykrywać halucynacje w odpowiedziach.
Protip: Przygotuj “zestaw testowy halucynacji” – zbiór pytań, na które system nie powinien znać odpowiedzi (np. “czy macie produkt X, którego nie ma w katalogu?”) i włącz go do regresyjnych testów automatycznych przy każdej aktualizacji.
Integracja z systemami transakcyjnymi
Jedna z głównych przyczyn halucynacji to brak dostępu do aktualnych danych operacyjnych. Jeżeli asystent odpowiada na podstawie wczorajszego indeksu, może polecać produkty już wyprzedane.
Rozwiązanie to podział na:
dane “wolniej zmienne” (opisy, parametry) w indeksie RAG,
ceny i stany magazynowe pobierane “live” z systemu ERP/PIM/WMS.
Filtry dostępności powinny działać już na etapie retrieval, a czasowe TTL dla wyników unikają cachowania nieaktualnych informacji.
UX: komunikacja niepewności bez psucia doświadczenia
Systemy, które uczciwie przyznają, iż czegoś nie wiedzą, są postrzegane jako bardziej wiarygodne. W asystencie zakupowym trzeba pogodzić konwersacyjność z transparentnością.
Zamiast suchego “nie wiem”:
“Na podstawie danych w naszym sklepie nie widzę takiego produktu. Mogę zaproponować coś zbliżonego…”,
“Nie mam pewności co do tej informacji. Proponuję kontakt z konsultantem.”,
“Jako asystent zakupowy mogę doradzić tylko w wyborze produktów, nie udzielam porad medycznych.”
Protip: Testuj różne wersje komunikatów odmawiających odpowiedź w A/B-testach – często bardziej “ludzki” ton przekłada się na lepsze wskaźniki satysfakcji niż suche “nie mogę odpowiedzieć”.
Metryki i monitoring
W środowisku produkcyjnym branża wypracowuje kombinację wskaźników:
odsetek odpowiedzi bez źródła – ile odpowiedzi nie udało się powiązać z żadnym produktem w indeksie,
liczba eskalacji do supportu związanych z błędnymi informacjami,
współczynnik korekty przez człowieka – jak często konsultant musi poprawiać odpowiedź w trybie “copilota”.
Efekty biznesowe: od technologii do ROI
Międzynarodowe case studies pokazują, że dobrze wdrożony asystent zakupowy oparty na LLM i RAG potrafi zwiększyć konwersję i średnią wartość koszyka o 25–30% (American Chase), głównie dzięki lepszym rekomendacjom i szybszemu prowadzeniu przez proces decyzyjny.
Typowe scenariusze zastosowania:
Interaktywny doradca produktowy – klient opisuje potrzeby językiem naturalnym, asystent przegląda katalog, porównuje, filtruje po budżecie.
Copilot dla supportu – agent pyta model o fragmenty regulaminu, specyfikacje, status zamówienia (po weryfikacji trafia do klienta).
Asystent posprzedażowy – pomoc w konfiguracji, dobór akcesoriów, rekomendacje uzupełniające na podstawie historii zakupów.
Protip: Zacznij od wąskiego scenariusza o dużej wartości biznesowej (np. doradca w jednej kluczowej kategorii o wysokiej marży) – łatwiej tam kontrolować jakość i policzyć ROI.
Jak to sprzedać wewnątrz organizacji
Dla zarządu kluczowe jest połączenie argumentów technologicznych z twardymi efektami biznesowymi. Celem nie jest “magiczny chatbot”, ale skalowalny, kontrolowalny kanał sprzedaży, który:
zmniejsza presję na support (część pytań obsługiwana automatycznie),
zwiększa konwersję dzięki trafniejszym rekomendacjom opartym na realnych danych,
ogranicza ryzyka prawne (błędne informacje) dzięki zamkniętej domenie i guardrails.
Wdrożenie asystenta zakupowego na LLM bez halucynacji to nie kwestia wyboru jednej technologii, lecz przemyślanej architektury łączącej RAG, zoptymalizowany katalog, polityki odpowiedzi i twarde zabezpieczenia. W świecie, gdzie każda błędna rekomendacja kosztuje zaufanie klienta, inwestycja w kontrolę jakości odpowiedzi AI to nie luksus – to konieczność dla każdego sklepu stawiającego na przewagę technologiczną.
Redakcja
Na ecommerceblog.pl pomagamy właścicielom sklepów internetowych budować przewagę technologiczną, wdrażając rozwiązania typu headless oraz AI i dostarczając zasoby na temat najnowszych trendów w e-handlu oraz strategii biznesowych. Wspieramy w cyfrowej transformacji, ucząc, jak wykorzystać nowoczesne technologie do dominacji na rynku.
Newsletter
Subskrybuj dawkę wiedzy
Wypróbuj bezpłatne narzędzia
Skorzystaj z narzędzi, które ułatwiają codzienna pracę!
Kiedy klient wpisuje w wyszukiwarkę Twojego sklepu „buty na ślub w plenerze" albo „torba do…
Redakcja
2 lipca 2025
Zarządzaj zgodą
Aby zapewnić jak najlepsze wrażenia, korzystamy z technologii, takich jak pliki cookie, do przechowywania i/lub uzyskiwania dostępu do informacji o urządzeniu. Zgoda na te technologie pozwoli nam przetwarzać dane, takie jak zachowanie podczas przeglądania lub unikalne identyfikatory na tej stronie. Brak wyrażenia zgody lub wycofanie zgody może niekorzystnie wpłynąć na niektóre cechy i funkcje.
Funkcjonalne
Zawsze aktywne
Przechowywanie lub dostęp do danych technicznych jest ściśle konieczny do uzasadnionego celu umożliwienia korzystania z konkretnej usługi wyraźnie żądanej przez subskrybenta lub użytkownika, lub wyłącznie w celu przeprowadzenia transmisji komunikatu przez sieć łączności elektronicznej.
Preferencje
Przechowywanie lub dostęp techniczny jest niezbędny do uzasadnionego celu przechowywania preferencji, o które nie prosi subskrybent lub użytkownik.
Statystyka
Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do celów statystycznych.Przechowywanie techniczne lub dostęp, który jest używany wyłącznie do anonimowych celów statystycznych. Bez wezwania do sądu, dobrowolnego podporządkowania się dostawcy usług internetowych lub dodatkowych zapisów od strony trzeciej, informacje przechowywane lub pobierane wyłącznie w tym celu zwykle nie mogą być wykorzystywane do identyfikacji użytkownika.
Marketing
Przechowywanie lub dostęp techniczny jest wymagany do tworzenia profili użytkowników w celu wysyłania reklam lub śledzenia użytkownika na stronie internetowej lub na kilku stronach internetowych w podobnych celach marketingowych.