Metodologia

Empiryczna, powtarzalna, faktograficzna. Każdy audyt to 120 wywołań do API trzech modeli AI w kontrolowanych warunkach. Zero estymacji, wszystkie dane z odpowiedzi modeli.

Konstrukcja zapytań

20 promptów rozłożonych na 6 kategorii odpowiadających różnym etapom ścieżki decyzyjnej klienta końcowego. Promy są generowane proceduralnie z parametrów audytu (branża, miasto, marka, konkurenci) z uwzględnieniem polskich form gramatycznych — by odzwierciedlić sposób, w jaki rzeczywisty użytkownik formułuje zapytania.

KategoriaLiczba promptówPrzykład
Odkrywanie6„Poleć dobre miejsce na usługa we Mieście"
Porównanie4Marka A czy Marka B — co wybrać?"
Problem3„Mam problem, potrzebuję usługi. Kogo polecasz?"
Deep research3„Wymień top 10 miejsc na usługa we Mieście"
Marka wprost3„Co myślisz o marce X? Branża: Y"
Long tail1Realistyczne dłuższe zapytanie z budżetem i kontekstem

Modele AI

Każdy z 20 promptów jest zadawany trzem modelom AI w dwóch trybach pracy. Łącznie 120 wywołań na audyt.

ProviderTryb A — bez wyszukiwaniaTryb B — z wyszukiwaniem webowym
Anthropic Claude claude-haiku-4-5 claude-sonnet-4-6 + web_search
OpenAI GPT gpt-5.4 gpt-5.4 + web_search (Responses API)
Google Gemini gemini-2.5-flash-lite gemini-2.5-flash-lite + googleSearch grounding

Tryby pracy modeli

Tryb A — bez wyszukiwania

Model odpowiada wyłącznie na podstawie wiedzy z treningu. Reprezentuje stan modelu „w pamięci", bez bieżącego internetu. Mniej aktualny, ale pokazuje co model uznaje za utrwalone w swojej bazie wiedzy.

Tryb B — z wyszukiwaniem

Model ma dostęp do wyszukiwania webowego (Claude web_search, OpenAI web_search, Gemini googleSearch). Reprezentuje to, co realnie widzi użytkownik ChatGPT Plus, Claude.ai Pro, Gemini Advanced. Tryb B ma większą wagę biznesową w analizie.

Co znajdziesz w raporcie

PDF A4 z dziesięcioma sekcjami danych. Pełna lista poniżej.

  1. Strona tytułowa — branża, miasto, marka, data, liczba zapytań
  2. Podsumowanie — kluczowe liczby, ranking top 5 marek, pokrycie klienta w 6 kategoriach
  3. Metodologia — kategorie promptów, tryby, wersje modeli
  4. Anthropic Claude — szczegółowy ranking marek, pokrycie klienta per kategoria, top 3 marki w każdej kategorii
  5. OpenAI GPT — analogicznie
  6. Google Gemini — analogicznie
  7. Analiza kategorii — porównanie widoczności klienta vs top-3 marek dla każdej z 6 kategorii zapytań
  8. Dominanci rynku AI — łączna widoczność wszystkich marek w trybie B, ranking globalny
  9. Ekosystem źródeł cytowanych przez AI — top domen z których AI bierze informacje, per-marka top źródła empiria
  10. Co AI czyta na stronach konkurencji — fragmenty stron (cited_text z Claude) zawierające nazwy marek empiria
  11. Jak modele AI tłumaczą zapytania klientów — search queries, które AI generuje w tle przy polskim prompcie empiria
  12. Luki widoczności klienta — lista kategorii i providerów z zerowym wymienieniem klienta, priorytet wysoki/średni/niski
  13. Załączniki — pełna lista 20 promptów, lista śledzonych marek, disclaimer prawny

Empiryczne, nie spekulacyjne

Wszystkie dane w raporcie pochodzą bezpośrednio z odpowiedzi modeli AI. Nie ekstrapolujemy, nie szacujemy, nie używamy zewnętrznych narzędzi rankingowych. Każdą liczbę można zweryfikować przy pakiecie Standard/Enterprise (otrzymujesz surowe dane JSON ze wszystkimi 120 odpowiedziami).

Powtarzalność

Wszystkie wywołania API są wykonywane z parametrem temperature=0 (deterministyczność). W modelach o wewnętrznej niedeterministyczności (Claude przy równych prawdopodobieństwach tokenów) różnice między run-ami pojedynczego promptu są w granicach 5-10%, agregowane przez 6 kategorii — istotnie niższe na poziomie raportu końcowego.

Modele AI zmieniają się w czasie niezależnie od AIScan. Audyt wykonany za 6 miesięcy może dać inne wyniki — wynika to ze zmian w wagach modeli, indeksach wyszukiwania i algorytmach groundingu po stronie providerów. Raport dokumentuje stan w momencie wykonania.

Zamów audyt Cennik