Dlaczego dobór technologii ma znaczenie? Dlaczego tzw. sampling danych jest naciąganiem rzeczywistości?

I dlaczego trzeba być świadomym ryzyk wynikających z próbkowania i wybiórczego raportowania danych?

Rozwiązania konkurencyjne do Dynatrace nie raportują 100% operacji, a wynika to przede wszystkim z ograniczeń ich architektury. O czym nie mówi konkurencja?

Opóźnienie (tzw. lag-time) w raportowaniu danych, sięgające nawet 10-15 minut jest prawidłowym zachowaniem systemu. W praktyce otrzymujesz informację o awarii 15 minut po fakcie

Brak pełnego kontekstu monitorowanych transakcji jest „uznawany” za normę. I jest to powodowane wykorzystaniem tzw. „snapshot collections & partial call graphs”, które zawierają dane po wystąpieniu usterki lub wykrytym spowolnieniu systemu, bez pełnego kontekstu – stąd nie można wskazać faktycznej przyczyny problemu.

Dopiero zrozumienie podstaw działania systemów różnych dostawców, pozwala na podjęcie świadomej decyzji o wyborze (przy jednoczesnej aprobacie ew. ograniczeń) konkretnego rozwiązania – a to ma najczęściej istotne konsekwencje przy realizacji inicjatyw, np. DevOps czy DPM.

Wyobraź sobie, że działasz w warunkach ostrej konkurencji, budujesz produkt, na czas, w zakresie, w budżecie… Stajesz na starcie, a Twój pilot w tym rajdzie to „sampler”. A dlaczego sampling jest do bani? Zobacz sam…