Trendy w Business Intelligence, na
które warto zwrócić uwagę

Artykuły eksperckie | 22.02.2017 | Czas czytania: 7 minut

Firmy konkurują między sobą oferowanymi usługami czy produktami pod względem jakości, ceny albo dostępności. Na dojrzałych rynkach, na których są małe możliwości zmiany jakiejkolwiek z powyższych cech, należy szukać innych szans na zdobycie przewagi konkurencyjnej. Obecnie za najważniejsze źródło, z jakiego firmy mogą czerpać swoją przewagę nad konkurencją, jest wiedza – o swoich klientach, ich oczekiwaniach, a także o sobie samych. Służące do tego celu systemy Business Intelligence mają już mocno ugruntowaną pozycję w przedsiębiorstwach.

Oznacza to, że wykorzystywanie ich do wypracowywania przewagi konkurencyjnej musi opierać się na coraz bardziej innowacyjnym ich wykorzystaniu. Dlatego właśnie monitorowanie trendów w tym zakresie jest istotne także z punktu widzenia klienta. Problem polega na tym, że w rozmowach o trendach w IT nierzadko pojawiają się przewidywania oparte głównie na pobożnych życzeniach producentów oprogramowania. To jednak nie zmienia faktu, że trend może być wyznacznikiem drogi, wskazaniem technologii, która może okazać się wiodąca – czyli warto w nią zainwestować. Postaram się wskazać trendy, które odpowiadają na rzeczywiste potrzeby użytkowników, a nie są jedynie produktami marketingowymi. Zwrócę również uwagę na trendy Business Intelligence, które w przemyśle odgrywają kluczową rolę.

Przetwarzanie danych in-memory

W wielu organizacjach przetwarzanie danych oparte o technologię in-memory jest wciąż mało znanym podejściem. W firmach wciąż jeszcze istnieją tradycyjne hurtownie danych będące ogromnymi składowiskami danych. Wiele z nich działa w ten sposób, że muszą pobrać dane z dysku, przenieść je do pamięci RAM, by procesor mógł je przetworzyć, a następnie zwrócić wynik na ekranie komputera osoby dokonującej analiz. Przy zastosowaniu technologii in-memory z procesu eliminowany jest najsłabszy, bo najwolniejszy element tego łańcucha, czyli pobieranie danych z dysku. Dzięki temu analiza danych jest znacznie szybsza. O tym jakie są to różnice niech świadczą liczby: w tradycyjnym modelu wynik raportu pojawia się po upływie 30 minut, przy zastosowaniu rozwiązań opartych o in-memory wynik będzie można uzyskać nawet w przeciągu sekund.

Kiedy czas jest kluczowy

Oczywiście nie zawsze wydłużony czas oczekiwania na wyniki jest problemem. Jest on do zaakceptowania, jeżeli chodzi o skomplikowane analizy. Cały proces można zaplanować wcześniej, zazwyczaj bowiem z wyprzedzeniem wiemy, że będziemy potrzebować konkretnej analizy w konkretnym terminie. Ale co jeżeli potrzebujemy wyników na już, analiza dotyczyć ma danych aktualnych, bo z ostatnich 48 godzin i do tego wolumen tych danych jest znaczący?

Z taką sytuacją spotkamy się często w branżach, których rynek jest bardzo dynamiczny, na których dokonywana jest ogromna liczba transakcji kupna-sprzedaży. Musimy śledzić bieżącą sytuację, żeby nie kupić zbyt drogo czy za dużo/za mało niż nam potrzeba, albo sprzedać zbyt tanio – a wszystko z uwzględnieniem różnych scenariuszy bazowych. Jeśli do tego nasza organizacja jest rozproszona i działa w różnych krajach na różnych kontynentach, a rozliczenia prowadzi w różnych walutach, wszystkie te operacje będą bardzo skomplikowane. Warto się wtedy zastanowić – czy możemy sobie pozwolić na czekanie?

Stare vs. nowe

Większość organizacji obecnie korzysta z systemu BI, często jednak strategia jego wykorzystywania nie była zmieniana od lat. Kiedy zatem zwykły system BI staje się niewystarczający? Jednym z przykładów jest problem z naniesieniem danych na mapy. Oczywiście tradycyjne systemy również sobie z tym radzą, ale poprzez agregację. Dział IT, przy przeładowywaniu hurtowni danych, tworzy agregaty dla ustalonych wcześniej zapytań np. suma sprzedaży wg. czasu, regionów, całych sklepów, grup sprzedawców. Co jeśli trzeba zobaczyć dane w inny sposób niż wcześniej zaprojektowany? Trzeba wrócić do przetwarzania danych i stworzyć kolejny wymiar do agregacji. W technologiach in-memory wystarczy jedynie dodać nowy atrybut poprzez drag&drop na ekranie i kontynuować swoją analizę.

Przy przetwarzaniu in-memory dane najczęściej nie są zagregowane, co pozwala na wysoką szczegółowość, a także szerokie możliwości w przeprowadzanych analizach. Schodzenie do poszczególnych transakcji, by później zsumować wszystko dynamicznie według własnych narzuconych ograniczników w atrybutach, jest zadaniem wykonywanym w bardzo krótkim czasie i – co być może najważniejsze – bez konieczności posiadania profesjonalnej wiedzy na temat tworzenia agregacji na poziomie hurtowni. Możliwe jest analizowanie danych według każdej pozycji atrybutu i wchodzenie na każdy poziom szczegółowości przy bardzo szybkiej reakcji systemu. A wszystko dzięki przetwarzaniu danych w pamięci RAM serwera, któremu przetwarzanie milionów wierszy danych nie zajmuje dużo czasu. System taki w dużej mierze uniezależnia analityka od wsparcia osób trzecich. A to umożliwia oddanie steru tym, którzy rzeczywiście wiedzą, czego w danych szukać.

Self-service BI

Przełożenie ciężaru tworzenia analiz na użytkownika biznesowego pozwala wyeliminować w dużej mierze problemy komunikacyjne. Związane jest to z tym, że użytkownicy biznesowi i wspierające ich osoby z działu IT często nie mówią tym samym językiem, chociażby w zakresie fachowej terminologii. Poza tym to właśnie użytkownik systemu ma wiedzę, umiejętności i doświadczenie, by modelować analizy w najlepszy sposób. Dlatego właśnie ważne jest to, by narzędzie BI było rozwiązaniem działającym w modelu self-service.

Osoba zaangażowana, skupiona na tworzeniu wielowymiarowych analiz będzie efektywniejsza, jeżeli będzie miała do dyspozycji narzędzie, które pozwoli jej na samodzielną pracę z danymi. Łatwiej jej będzie utrzymać skupienie na dokonywaniu analiz, poszukiwaniu relacji między danymi oraz wyciąganiu wniosków, jeśli będzie mogła sama tworzyć nowe raporty, układy i relacje, niż w sytuacji, kiedy musi za każdy razem tworzyć zgłoszenia z prośbą o dokonanie kolejnych zmian. Większe zaangażowanie przekłada się na lepsze efekty.

Przeczytaj artykuł: Narzędzia Business Intelligence dla managera: QlikView i Qlik Sense

Przemysłowy Internet Rzeczy

Kiedy mówimy o Internecie Rzeczy najczęściej mamy na myśli inteligentne pralki, włączniki światła czy inteligentny alarm – słowem gadżety, które mają w nowoczesny sposób ułatwiać nam życie. Ale korzystanie z sieci czujników, czytników i automatycznych kontrolerów nie jest niczym nowym – zwłaszcza w przemyśle takie rozwiązania są wykorzystywane od dawna do regulowania i usprawniania procesów produkcyjnych, magazynowych i logistycznych. Co się zatem zmieniło, że dopiero teraz mówi się w tym kontekście o Internecie Rzeczy?

Żeby zaistniał Internet Rzeczy potrzebne nam są dwa główne składniki:

  • przede wszystkim Internet, co nie jest rzeczą tak oczywistą, jakby się wydawało na pierwszy rzut oka. Ostatnie lata dały nam kolejne kilometry światłowodów i powszechny dostęp do szerokopasmowego Internetu. A to oznacza ogromne możliwości transferu danych;
  • rzeczy – rozumiane jako urządzenia, które mogą się ze sobą kontaktować i wysyłać produkowane dane do wspólnego huba. Czyli muszą mieć możliwość podłączenia do Internetu.

Nie da się oczywiście zaprzeczyć, że we wzroście popularności IoT ogromną rolę odegrała oczywiście kwestia ceny – urządzenia takie jak Raspberry PI i jemu podobne, które mogą zostać wykorzystane jako sterowniki urządzeń domowych, tanieją i stają się coraz powszechniejsze. Jednocześnie rośnie ich moc i możliwość rozszerzeń. Przy okazji pojawiają się także coraz bardziej kreatywne zastosowania IoT. Także komercyjne i przemysłowe.

Sprawdź artykuły:

Kolejnym czynnikiem wpływającym na popularność IoT jest standaryzacja protokołów API, dzięki którym jesteśmy w stanie łączyć ze sobą urządzenia i je synchronizować. Kontroler w urządzeniu, wyposażony w np. RFID, IR, GPS, akcelerometr, kamerę, higrometr zaprogramowany w JavaScript jest w stanie bez problemu łączyć się z siecią za pomocą karty SIM, czy sieci Wifi. A to pozwala na zwiększenie zakresu wykorzystania takich rozwiązań i łączenie z innymi.

IoT i Big Data

Co jeśli podejmiemy w firmie strategiczną decyzję, że od teraz będziemy gromadzić te wszystkie informacje – na temat urządzeń produkcyjnych, ruchów maszyn, ludzi, towarów? Przede wszystkim uda się zebrać bardzo duży zbiór danych. Ale posiadanie danych nie jest celem samym w sobie. To, na czym naprawdę powinno nam zależeć, to analiza danych i zdobywanie wiedzy na temat procesów zachodzących w firmie. 

Pozwala to na zlokalizowanie punktów generujących problemy i ich wyeliminowanie za sprawą inaczej zamodelowanego procesu biznesowego. Możemy na przykład lokalizować tzw. wąskie gardła w naszym magazynie lub monitorować parametry wydajnościowe poszczególnych maszyn produkcyjnych. Sieci handlowe są w stanie lepiej analizować oddziaływanie reklam na klientów, czy układ towarów w sklepie, monitorując np. ile klienci spędzają czasu przy danym produkcie. W rolnictwie sieć instrumentów pomiarowych pozwala na efektywne zarządzanie uprawami. Urządzenia przekazują informacje nt. nasłonecznienia, ilości opadów, wilgotności, wysyłają aktualne zdjęcia itd. To pozwala na szybszą reakcję plantatorów w przypadku niewystarczającego nawodnienia czy pojawienia się chorób.

Zakres zastosowań Przemysłowego Internetu Rzeczy jest praktycznie nieograniczony. Ale dopiero technologia przetwarzania danych oraz analiza Big Data umożliwiają korzystanie z niego w pełni. Bez nich byłyby to jedynie luźno powiązane kontrolery w urządzeniach, zapełniające po brzegi ogromne składnice danych, bez szans na ich zrozumienie. 

Cloud Computing

Wbrew pozorom pojęcie cloud computing wciąż jeszcze należy traktować jako trend, pomimo tego, że mówi się o nim już od 2007 roku. Przetwarzanie w chmurze jest bowiem zupełną zmianą paradygmatu korzystania z rozwiązań IT, jak i sposobu finansowania. W Polsce jeszcze wciąż wzbudza kontrowersje – zwłaszcza wśród bardziej konserwatywnych managerów, obawiających się utraty kontroli nad infrastrukturą i danymi.

Nie jest przypadkiem, że IoT i cloud computing są niemalże równolatkami. Oba te zjawiska są ze sobą ściśle powiązane. Rozwój IoT znacznie zwiększa zapotrzebowanie na przetwarzanie danych, natomiast chmura znacząco obniża jego koszty. IoT jeszcze bardziej niż do tej pory zmusza użytkowników do korzystania z infrastruktury, która jest elastyczna i dostosowuje się do zmiennych potrzeb, natomiast usługi chmurowe od samego początku promowane są obietnicą pełnej skalowalności.

Jeżeli więc rozważamy wdrożenie nowego rozwiązania w organizacji, należy przede wszystkim zastanowić się nad sposobem finansowania tego przedsięwzięcia. Czy poniesiemy koszty inwestycyjne na początku projektu i będziemy go amortyzować (tzw. CAPEX), czy wybierzemy usługę, która generuje jedynie koszty operacyjne (OPEX). Większe ryzyko niesie ze sobą CAPEX, ponieważ koszty inwestycyjne pojawiają się już na samym początku, często dużo wcześniej niż sama inwestycja zacznie działać i na siebie zarabiać. OPEX pozwala rozliczać miesięczny koszt działania usługi, na przykład miesięczny najem mocy obliczeniowej. 

Które podejście jest właściwsze zależy oczywiście od konkretnej organizacji, jej struktury, strategii i celów, czasem lepiej będzie zakupić sprzęt i wpisać go w aktywa, zwiększając tym samym majątek zakładowy. W innych przypadkach lepiej będzie wybrać model usługowy, który generuje koszty widoczne jedynie w rachunku zysków i strat.

Duża inwestycja w Business Intelligence

W wielu przedsiębiorstwach występuje sezonowość związana z dokonywaniem analiz. Najczęściej „gorące okresy" związane są z raportami finansowymi i ich terminami narzuconymi przez prawo podatkowe. Zwiększone potrzeby analityczne i raportowe, a co za tym idzie zapotrzebowanie na moce obliczeniowe, charakterystyczne są dla końców konkretnych okresów rozliczeniowych np. raport miesięczny, kwartalny, półroczny czy roczny. W różnych przedsiębiorstwach mamy do czynienia z różnymi wahaniami w zakresie zapotrzebowania na analizy, ale generalnie można założyć, że czym większe wahania, tym bardziej opłacalny jest model chmurowy. A to ze względu na to, że w tym modelu płacimy jedynie za wykorzystane zasoby, możemy je więc dowolnie zwiększać i zmniejszać, dostosowując do indywidualnego rytmu analitycznego naszej firmy.

Autorem wpisu jest

Artur Jadwidzic, JCommerce

Specjalista BI

Pasjonat technologii Business Intelligence. W firmie JCommerce spełnia się w roli konsultanta QlikView oraz Qlik Sense. Po pracy zajmuje się szerzeniem wiedzy o systemach klasy ERP i BI wśród studentów. Absolwent Uniwersytetu Ekonomicznego we Wrocławiu na kierunku Informatyka w Biznesie.

Komentarze

  • Aktualnie brak komentarzy.

Skontaktuj się z nami