Od roll-upa do dialogu: kioski z awatarami (Avatar Story) na targach

Od roll-upa do dialogu: kioski z awatarami (Avatar Story) na targach

W branży druku 3D nauczyłem się jednego: nawet najbardziej futurystyczny produkt potrafi zniknąć w gąszczu roll-upów i zapętlonych prezentacji. Na halach targowych rywalizujemy o ułamki sekund uwagi — i właśnie tam „martwe” materiały najczęściej przegrywają z żywą rozmową.

Stąd pomysł, by w kiosku nie odtwarzać filmu, ale poprowadzić prawdziwą, sterowalną rozmowę. Tyle że rozmowę przewidywalną, zgodną z narracją marki i możliwą do uruchomienia na zwykłym stanowisku eventowym. Tu wchodzi AvatarSpark — platforma do projektowania i uruchamiania projektów konwersacyjnych z awatarami, złożona z edytora, integracji AI, systemu generowania wideo, odtwarzacza i pełnej analityki.

Czym jest Avatar Story w kiosku

Avatar Story to narracja marki i produktów, prowadzona przez awatara na ekranie kiosku. Zamiast jednego, sztywnego filmu mamy deterministyczne drzewo konwersacji: użytkownik wybiera tematy (kim jesteśmy, oferta, porównania, case’y, jak zacząć), a awatar prowadzi go po z góry ułożonych gałęziach. Każda gałąź to węzeł z treścią i wideo, powiązany relacją parent-child — razem tworzą logiczną mapę rozmowy.

W praktyce kiosk wyświetla sekwencję wideo i interfejs wyboru, a użytkownik „klika” ścieżkę, która najbardziej go interesuje. Player pilnuje historii przejść, fullscreen, nawigacji i zdarzeń analitycznych — krótko mówiąc, zachowuje się jak reżyser interakcji, a nie zwykły odtwarzacz.

Pełny silnik rozmów w jednym miejscu

AvatarSpark to pełne środowisko pracy, a nie pojedynczy widget. Na etapie projektowania:

  • w edytorze drzew układasz scenariusz (drag & drop),
  • AI/LLM pomaga zaprojektować ścieżki i przewidzieć intencje użytkowników,
  • generator wideo (TTS + lip-sync) tworzy spójne materiały dla węzłów,
  • a na końcu wszystko spina odtwarzacz z analityką, którą widzisz w panelu.

To podejście rozwiązuje klasyczny dylemat eventowy: zachowujesz kontrolę narracji (deterministyczne ścieżki) i jednocześnie dajesz odbiorcy poczucie dialogu. A ponieważ ciężar pracy wykonujesz przed eventem, kiosk na miejscu działa lekko i stabilnie — bez farm GPU i bez improwizacji.

Uwaga praktyczna: jeśli chcesz, warstwę odtwarzacza możesz osadzić na stronie kiosku prostym skryptem (avatarspark.js). To tylko front — sercem pozostaje platforma, w której powstaje Twój projekt.

Po co w ogóle AI, skoro drzewo jest „z góry”?

Bo „inteligencja” jest najcenniejsza przed uruchomieniem kiosku. AI pomaga:

  • zmapować typowe pytania i ścieżki decyzyjne,
  • uporządkować bazę wiedzy i podsunąć brakujące gałęzie,
  • zoptymalizować kolejność i formę odpowiedzi (krótkie, klarowne, z jasnym CTA).

Dzięki temu na hali nie potrzebujesz ciężkiej inferencji: kiosk odtwarza gotowy scenariusz, ale taki, który zachowuje się jak rozmowa — bez „dziur” i bez błądzenia.

Jak to się klika: przebieg sesji Avatar Story na kiosku

  • Attract mode — ekran przyciągający uwagę; start z przycisku albo automatycznie po wykryciu obecności (kamera opcjonalnie).
  • Wejście awatara — krótkie intro i propozycja tematów.
  • Wybory — duże, dotykowe przyciski; opcjonalnie mowa/tekst (w zależności od konfiguracji).
  • Formularz leadowy — imię, e-mail, rola, zgody RODO; zapis do CRM i analityki.
  • Reset bezczynności — powrót do attract mode po określonym czasie.

Mechanika kiosku to też: auto-start/auto-reset, opcjonalny tryb bezdotykowy, kody QR, Terms/RODO w modalu oraz zdarzenia analityczne z każdego kroku (wejścia do węzłów, kliknięcia, końce filmów, wysłane formularze).

Rzeczy, które robią różnicę na hali

  • UX pod dotyk: duże, kontrastowe przyciski, czytelne fonty, jasne stany (pauza, koniec, powrót), opcjonalne napisy na głośne środowisko.
  • Odporność: lokalny cache wideo, tryb informacyjny przy braku sieci, kolejki zdarzeń do wysłania po reconnect.
  • Kiosk mode i watchdog: pełny ekran, blokady, automatyczny restart po awarii/bezczynności.
  • Sprzęt: ekran dotykowy, głośniki/mikrofon, opcjonalna kamera dla auto-startu lub pomiarów footfall.

Co widzi biznes (i co może policzyć)

AvatarSpark traktuje kiosk jak źródło danych do decyzji — nie tylko jako ładny ekran:

  • KPI: uruchomienia awatara, średni czas sesji, skuteczność przejść między węzłami, udział głosu vs. dotyk, A/B różnych intro i CTA.
  • Analityka zdarzeń: wszystkie interakcje (wejścia do węzłów, kliknięcia, formularze) lądują w rejestrze sesji i zdarzeń.
  • Panel i eksport: podgląd sesji/ścieżek, metryki dla marketingu i sprzedaży, szybki follow-up dzięki integracjom.

Efekt: więcej realnych rozmów na stoisku, mniej „ulotkowania”, lepsza konwersja do leada i krótsza droga do spotkania handlowego.

Dlaczego Avatar Story wygrywa z „interaktywnym wideo”

„Interaktywne wideo” bywa efektowne, ale rzadko reaktywne — każde odstępstwo od scenariusza rodzi koszty. AvatarSpark projektuje rozmowę jak produkt: z mapą decyzji, kontrolą jakości, analityką i możliwością szybkiej iteracji. Dzięki temu kiosk przestaje być ekranem, a staje się punktem kontaktu.

Dla odwiedzającego to odczuwalny dialog. Dla zespołu sprzedaży — leady i dane. Dla marketingu — mierzalne wskaźniki tego, co działa, a co wymaga poprawy.