Metodologia
Empiryczna, powtarzalna, faktograficzna. Każdy audyt to 120 wywołań do API trzech modeli AI w kontrolowanych warunkach. Zero estymacji, wszystkie dane z odpowiedzi modeli.
Konstrukcja zapytań
20 promptów rozłożonych na 6 kategorii odpowiadających różnym etapom ścieżki decyzyjnej klienta końcowego. Promy są generowane proceduralnie z parametrów audytu (branża, miasto, marka, konkurenci) z uwzględnieniem polskich form gramatycznych — by odzwierciedlić sposób, w jaki rzeczywisty użytkownik formułuje zapytania.
| Kategoria | Liczba promptów | Przykład |
|---|---|---|
| Odkrywanie | 6 | „Poleć dobre miejsce na usługa we Mieście" |
| Porównanie | 4 | „Marka A czy Marka B — co wybrać?" |
| Problem | 3 | „Mam problem, potrzebuję usługi. Kogo polecasz?" |
| Deep research | 3 | „Wymień top 10 miejsc na usługa we Mieście" |
| Marka wprost | 3 | „Co myślisz o marce X? Branża: Y" |
| Long tail | 1 | Realistyczne dłuższe zapytanie z budżetem i kontekstem |
Modele AI
Każdy z 20 promptów jest zadawany trzem modelom AI w dwóch trybach pracy. Łącznie 120 wywołań na audyt.
| Provider | Tryb A — bez wyszukiwania | Tryb B — z wyszukiwaniem webowym |
|---|---|---|
| Anthropic Claude | claude-haiku-4-5 | claude-sonnet-4-6 + web_search |
| OpenAI GPT | gpt-5.4 | gpt-5.4 + web_search (Responses API) |
| Google Gemini | gemini-2.5-flash-lite | gemini-2.5-flash-lite + googleSearch grounding |
Tryby pracy modeli
Tryb A — bez wyszukiwania
Model odpowiada wyłącznie na podstawie wiedzy z treningu. Reprezentuje stan modelu „w pamięci", bez bieżącego internetu. Mniej aktualny, ale pokazuje co model uznaje za utrwalone w swojej bazie wiedzy.
Tryb B — z wyszukiwaniem
Model ma dostęp do wyszukiwania webowego (Claude web_search, OpenAI web_search, Gemini googleSearch). Reprezentuje to, co realnie widzi użytkownik ChatGPT Plus, Claude.ai Pro, Gemini Advanced. Tryb B ma większą wagę biznesową w analizie.
Co znajdziesz w raporcie
PDF A4 z dziesięcioma sekcjami danych. Pełna lista poniżej.
- Strona tytułowa — branża, miasto, marka, data, liczba zapytań
- Podsumowanie — kluczowe liczby, ranking top 5 marek, pokrycie klienta w 6 kategoriach
- Metodologia — kategorie promptów, tryby, wersje modeli
- Anthropic Claude — szczegółowy ranking marek, pokrycie klienta per kategoria, top 3 marki w każdej kategorii
- OpenAI GPT — analogicznie
- Google Gemini — analogicznie
- Analiza kategorii — porównanie widoczności klienta vs top-3 marek dla każdej z 6 kategorii zapytań
- Dominanci rynku AI — łączna widoczność wszystkich marek w trybie B, ranking globalny
- Ekosystem źródeł cytowanych przez AI — top domen z których AI bierze informacje, per-marka top źródła empiria
- Co AI czyta na stronach konkurencji — fragmenty stron (cited_text z Claude) zawierające nazwy marek empiria
- Jak modele AI tłumaczą zapytania klientów — search queries, które AI generuje w tle przy polskim prompcie empiria
- Luki widoczności klienta — lista kategorii i providerów z zerowym wymienieniem klienta, priorytet wysoki/średni/niski
- Załączniki — pełna lista 20 promptów, lista śledzonych marek, disclaimer prawny
Empiryczne, nie spekulacyjne
Wszystkie dane w raporcie pochodzą bezpośrednio z odpowiedzi modeli AI. Nie ekstrapolujemy, nie szacujemy, nie używamy zewnętrznych narzędzi rankingowych. Każdą liczbę można zweryfikować przy pakiecie Standard/Enterprise (otrzymujesz surowe dane JSON ze wszystkimi 120 odpowiedziami).
Powtarzalność
Wszystkie wywołania API są wykonywane z parametrem temperature=0 (deterministyczność). W modelach o wewnętrznej niedeterministyczności (Claude przy równych prawdopodobieństwach tokenów) różnice między run-ami pojedynczego promptu są w granicach 5-10%, agregowane przez 6 kategorii — istotnie niższe na poziomie raportu końcowego.
Modele AI zmieniają się w czasie niezależnie od AIScan. Audyt wykonany za 6 miesięcy może dać inne wyniki — wynika to ze zmian w wagach modeli, indeksach wyszukiwania i algorytmach groundingu po stronie providerów. Raport dokumentuje stan w momencie wykonania.