Zmierz się z content marketingiem. Na co zwrócić uwagę przy mierzeniu i raportowaniu kampanii?

Tomasz Wileński
CEO w islay.tech, Członek Grupy Roboczej IAB Content Marketing i Reklama Natywna
Wraz z rozwojem Internetu - wyszukiwarki stały się bardzo popularnym narzędziem do poszukiwań wszelkiego rodzaju treści. Pojawienie się nowych różnych formatów contentu, pociągnęło za sobą potrzebę stworzenia kolejnych sposobów przeszukiwania i indeksowania zasobów internetowych.
Przyglądamy się bliżej, w jaki sposób ruch botów może wpłynąć na wyniki analizy zachowania użytkowników na stronie Sukanya Wuttisirichai / 123rf.com
Naturalną konsekwencją takiego rozwoju - jest wzrost ruchu generowanego przez roboty indeksujące, tzw: crawlery, boty, spidery. Crawlery, czyli programy zbierające informacje o strukturze, stronach i treściach znajdujących się w Internecie, odwiedzają witryny w taki sam sposób jak użytkownicy. Te odwiedziny widać w statystykach oglądalności niektórych programów analitycznych. Na ogół jednak, nie wiadomo jaką część ruchu stanowią roboty w kampanii konkretnej marki. Według robotstxt.org jest ponad 300 robotów, jednak faktycznie jest ich znacznie więcej. Już sam Google używa ponad 10 różnych, np. Googlebot image, Googlebot news, Googlebot video i inne.

Cele odwiedzin są różne: od badania zawartości witryny, sprawdzania jej kodu, monitoringu aktualizacji, aż do tworzenia mirrorów. Zazwyczaj jednak chodzi o pozyskanie jak najdokładniejszej informacji o indeksowanej stronie.

Liczba i rodzaj crawlerów powodują, że sztuczny ruch zwiększa swój udział z każdym rokiem, a jego poziom potrafi w niektórych przypadkach osiągnąć nawet 70%!

Jak zatem w tej niewiedzy funkcjonuje rynek reklamy i content marketingu? Czy mamy świadomość tego, ile pieniędzy przeznacza się na wyświetlanie treści robotom? Czy mając taką wiedzę inaczej wyglądałyby rozliczenia z wydawcami? Za co faktycznie płacimy kupując reklamy i publikując content?

Przyjrzyjmy się bliżej, w jaki sposób ruch botów może wpłynąć na wyniki analizy zachowania użytkowników na stronie.

Przebadaliśmy ponad 100 różnych projektów - kampanii, blogów, stron wydawców i stron korporacyjnych pod kątem udziału ruchu wygenerowanego przez maszyny.

Okazuje się, że w zasadzie - nie ma powodów do zmartwień. W większości przypadków ruch wygenerowany przez crawlery nie przekroczył na polskich stronach 10%. Taki poziom jest naturalny dla całego Internetu i nie jest specjalnie szkodliwy dla online marketingu.

Badanie wykazało jednak jedną istotną cechę. W 15% przypadków poziom crawlera w ruchu na stronie przekroczył w kampanii 40%. Oznacza to, że treść, którą wyprodukował klient i zapłacił na jej wyświetlenie do określonej grupy użytkowników - prawie w połowie była „obejrzana” przez roboty indeksujące.

Nie ma w tym tu niczyjej winy. Wyszukiwarki indeksują niektóre treści częściej, a niektóre rzadziej. Ich ruch nie rozkłada się równomiernie ani w przestrzeni online ani w czasie. Nie wiadomo zatem kiedy, ani na jakiej stronie www roboty zwiększą oglądalność treści i podbiją statystyki oglądalności.

Poniżej przykłady badania kampanii, w których zmierzony został ruch z automatów indeksujących:
Jak widać, udział ruchu robotów w kampaniach jest trudno przewidywalny. Nie można zatem określić reguł rządzących tym procesem ani estymować efektów kampanii bez posiadania odpowiednich narzędzi.

Można oczywiście przyjąć założenie, że tylko w 15% przypadków kampanie oglądają boty, ale raczej nie warto znaleźć się w tej grupie ze swoją akcją marketingową.

Niezależnie od opisanego faktu, w raportach kampanii reklamowych i rankingach oglądalności stron www nie uwzględnia się informacji o poziomie sztucznego ruchu. Rynek mediów internetowych świadomie lub nie - pomija fakt inwestowania części budżetów marketingowych w internetową próżnię.

Dostępne programy analityczne pozwalają już na zmierzenie i kontrolę poziomu sztucznego ruchu w kampaniach opartych na content marketingu i działaniach natywnych. Poniżej przykłady analizy kampanii z uwzględnieniem ruchu z crawlerów:

Przykład 1 - Kampania operatora sieci komórkowej
Źródło danych: iSlay
Przykład 2 - Kampania sieci handlowej
Źródło danych: iSlay
Dziś w większości polskich kampanii crawler stanowi śladowy poziom ruchu. Wydawcy starają się zapewnić dobrej jakości treść w kampaniach content marketingowych i reklamach natywnych. Wyszukiwarki aktualizują atrakcyjne treści marketingowe, ale zazwyczaj nie zaburzają wyników oglądalności o więcej niż 10%.

Crawlery podążają na trendami poszukiwań i zbierają wszystko, co może zainteresować użytkowników. W większości prowadzonych przez iSlay badań kampanii udziału botów wygląda tak jak na poniższym wykresie:

Przykład 3 - Kampania kosmetyków
Źródło danych: iSlay
Okazuje się jednak, że udział ruchu crawlerów w całości ruchu internetowego rośnie z roku na rok. Te maszyny mają coraz bardziej wyspecjalizowane zadania, a co za tym idzie - rośnie ich liczba i różnorodność. Zdarzają się sytuacje, w których udział ruchu robotów jest na bardzo wysokim poziomie. Obrazuje to przykład z badania treści popularnego portalu horyzontalnego na poniższym wykresie:
Źródło danych: iSlay
Jak widać - prawie połowa odsłon została wygenerowana przez maszyny. To już nie jest poziom, który można zaakceptować przy inwestycji w media internetowe. Przy takich wynikach właściwie traci się kontrolę nad budżetem.

Osoby odpowiedzialne za realizację kampanii marketingowych - powinny mieć informację o udziale ruchu botów w raportach. Jednocześnie dane o poziomie crawlera powinny być elementarną informacją przy monitorowaniu zasięgu kampanii.

Niektóre systemy analityczne, bez żadnych dodatkowych ustawień - mają wyszczególnione źródło ruchu typu: Crawler. W większości popularnych na rynku rozwiązań do monitorowania kampanii, wyłapanie robotów wymaga specjalnych ustawień w opcjach tych systemów.

Ogólna świadomość istnienia sztucznego ruchu istnieje od dawna, jednak kluczowe staje się badanie tego czynnika w kampaniach reklamowych i content marketingowych konkretnych produktów. Jak wykazały przykłady badań - udział botów jest nieprzewidywalny. Warto zatem mieć dostęp do analityki, która identyfikuje i raportuje odwiedziny automatów.

Jak skutecznie docierać z komunikacją marki do przedstawicieli „Gen Z”? Kiedy i jak zwrócić uwagę konsumenta? Czy treści mogą mieć wpływ na rzeczywistość? Jak video commerce wspiera proces zakupowy użytkowników? Na te i inne pytania odpowiedzą prelegenci konferencji organizowanej w ramach cyklu IAB HowTo „Video & Content Marketing. Best Friends Forever”, która odbędzie się już 28 stycznia br.

Więcej informacji: https://howto.iab.org.pl/content-2020/