W XXI wieku najważniejszym orężem nie są już rakiety, czołgi ani samoloty, lecz informacja. By ją zdobyć agenci wywiadu prowadzą rozpoznanie elektromagnetyczne, śledzą aktywność w mediach społecznościowych i analizują zdjęcia wykonane przez satelity szpiegowskie. Współczesne technologie pozwalają dość precyzyjnie ocenić prawdopodobieństwo ataku czy wybuchu wojny.
To zdjęcie w maju 2011 roku obiegło świat. Pokój pełen amerykańskich oficjeli. Miny poważne, wzrok wbity w niewidoczny ekran. W głębi wychylony nieco do przodu prezydent Barack Obama, po jego lewej stronie wiceprezydent Joe Biden, po prawej sekretarz stanu Hillary Clinton, która w pełnym napięcia geście zasłania usta. Wszyscy oni śledzą relację z oddalonego o tysiące kilometrów pakistańskiego Abbottabadu, gdzie elitarny oddział Navy Seals wpadł właśnie do kryjówki Osamy bin Ladena i po dłuższej wymianie ognia zabił najbardziej poszukiwanego terrorystę świata. Obraz dociera do Białego Domu za sprawą kamer umieszczonych na hełmach żołnierzy.
Amerykanie wzięli Osamę na celownik jeszcze pod koniec lat dziewięćdziesiątych ubiegłego stulecia. Wówczas przywódca Al-Kaidy zorganizował zamachy na ambasady USA w Kenii i Tanzanii. Po atakach z 11 września 2001 roku prezydent George W. Bush wydał rozkaz: „Chcę go mieć żywego lub martwego”. Specjalna komórka CIA przez kilkanaście lat gromadziła okruchy informacji i poszlaki. Wreszcie wpadła na trop kuriera, który doprowadził ich wprost do Osamy. Kilka lat temu Cynthia Storer i Nada Bakos, byłe już członkinie specjalnego zespołu, który rozpracowywał powiązania lidera Al-Kaidy, przyznały otwarcie: „Nie byłoby to możliwe, gdyby nie analiza Big Data”. CIA miało wówczas używać narzędzia o nazwie Gotham, stworzonego przez koncern Palantir Technologies. Pozwala ono wyłuskać istotne informacje z morza danych przelewających się przez globalną sieć.
Wiele szczegółów tej operacji nigdy zapewne nie zostanie ujawnionych. Śmiało można jednak przyjąć, że Amerykanie korzystali z informacji wywiadowczych wszystkich możliwych rodzajów. Na pewno więc niebagatelne znaczenie miały te zaliczane do kategorii Cyber Human Intelligence, które pozyskuje się poprzez analizę aktywności ludzi w mediach społecznościowych i na różnego rodzaju forach. Stąd już tylko krok do Open-source Intelligence, czyli białego wywiadu – gromadzenia i analizy danych pochodzących z ogólnodostępnych źródeł.
Nie można też zapominać o Signals Intelligence, czyli rozpoznaniu elektromagnetycznym, pozwalającym rejestrować aktywność środków łączności, takich jak radiostacje czy telefony, a wreszcie o Geospatial Intelligence, czyli zdjęciach i nagraniach z dronów czy satelitów szpiegowskich. Informacje zaliczane do tej kategorii mogły mieć niebagatelne znaczenie w końcowej fazie operacji.
Rezydencja, w której zaszył się przywódca Al-Kaidy, nie była podłączona do internetu, a jej mieszkańcy starali się nie korzystać z telefonów. Szeroko zakrojona analiza dostępnych materiałów pozwoliła jednak na zaobserwowanie dziwnej prawidłowości. Z posesji, która została otoczona wysokim murem, nie wynoszono śmieci. Przyboczni Osamy układali je w stosy i palili na podwórku. Chodziło o to, by w ręce postronnych nie dostała się nawet najmniejsza rzecz, na której podstawie można by zidentyfikować głównego lokatora...
„W kwestiach związanych z bezpieczeństwem analizy Big Data wykorzystuje się na poziomie taktycznym i operacyjnym. Schwytanie Bin Ladena jest tego doskonałym przykładem”, podkreśla dr Krzysztof Liedel, ekspert ds. terroryzmu i analizy danych z Collegium Civitas. „Ale Big Data ma pomóc także w przewidywaniu przyszłości, a nawet tworzeniu planów strategicznych”.
Era zettabajtów
W wyniku rozwoju technologii informacja stała się we współczesnym świecie najważniejszym, ale jednocześnie najbardziej powszechnym dobrem. Dzięki nowoczesnym sposobom komunikowania się powstają ogromne ilości danych. – Kiedy w 1997 roku kupowałem modem, by się połączyć z internetem, zasoby całej sieci wynosiły niespełna 30 GB. Dwadzieścia lat później taka ilość danych była wytwarzana w ciągu sekundy – mówi ppłk dr inż. Rafał Kasprzyk z Wydziału Cybernetyki Wojskowej Akademii Technicznej. Na Facebooku każdego dnia pojawia się średnio 4,3 mld postów i 350 mln zdjęć, na Twitterze zaś 656 mln tweetów. Oblicza się, że już dzisiaj przeciętny człowiek wytwarza 1,7 MB danych w każdej sekundzie swej aktywności.
Do nazywania ogromu informacji wprowadza się coraz większe jednostki. We wrześniu 2016 roku amerykańska firma informatyczna Cisco Systems ogłosiła początek ery zettabajtów. Dla wyjaśnienia: zettabajt to jednostka informacji wynosząca tryliard bajtów. Jest on równy bilionowi gigabajtów i tysiącowi eksabajtów. Jaka to skala wielkości? Spece z Cisco dają obrazowe porównanie: jeden eksabajt może pomieścić pliki wideo jakości HD, których odtworzenie zajęłoby 36 tys. lat. Poza tym można byłoby przesłać strumieniowo cały katalog Netflixa ponad 3 tys. razy.
Skąd ten ogrom informacji? Głównym ich źródłem jest oczywiście ludzka aktywność w sieci. Bujnie rozwija się ponadto tzw. internet rzeczy, obejmujący właściwie każdy sprzęt, który posiada łączność internetową i jest zdolny do wysyłania oraz odbierania informacji. Mowa zatem np. o podłączonych do sieci lodówkach, telewizorach, urządzeniach typu smartwatch czy nawet nasyconej elektroniką inteligentnej odzieży. Idąc dalej, dochodzimy do kwestii tzw. inteligentnych budynków, w których możliwe jest zdalne zarządzanie urządzeniami, oświetleniem, ogrzewaniem czy systemami alarmowymi. Do tego trzeba doliczyć m.in. sygnały logowania urządzeń GSM, namiary geolokalizacyjne różnorodnych nadajników i odbiorników GPS, dane transakcyjne kart płatniczych, a także czujniki mierzące stan pogody.
W hurtowych ilościach
Do obróbki tak wielkiej ilości danych potrzebne są nowatorskie metody i narzędzia. Przede wszystkim przed przystąpieniem do analizy zgromadzone informacje muszą być wstępnie przygotowane. W tym celu powstają tzw. hurtownie danych. Od lat funkcjonują na rynku cywilnym, oferując swe usługi, np. w biznesie, przemyśle, na rynku ubezpieczeń czy w medycynie. Dzięki nim możliwa jest skuteczna eksploracja danych: z prawdziwego oceanu informacji można wychwycić pewne prawidłowości, tendencje, zależności lub też przeciwnie – nieregularności.
Do takiej analizy konieczny jest sprzęt obliczeniowy o dużej mocy, który będzie w stanie uporać się z nawałem informacji w rozsądnym czasie. Ponieważ ilość danych przyrasta lawinowo, szybko muszą również rosnąć możliwości komputerów. W tym celu nieustannie zwiększa się moc obliczeniową maszyn. Trwają ponadto prace nad tzw. komputerami kwantowymi, których możliwości będą wielokrotnie większe od tradycyjnych, a których głównym przeznaczeniem ma być właśnie obróbka Big Data.
– Człowiek sam nie jest w stanie poradzić sobie z taką ilością informacji. Musi wspomagać się nowoczesnymi narzędziami analitycznymi. To oczywiste. Pozostaje pytanie, w jakim stopniu możemy uzależnić się od wskazań algorytmów. Jak dalece możemy im zaufać? – zastanawia się ppłk Kasprzyk. Współczesne programy komputerowe coraz częściej są zdolne do samodoskonalenia. Najprościej rzecz ujmując: mierząc się z nowymi problemami, znajdują dla nich rozwiązania, po czym starają się te rozwiązania uogólniać i wykorzystują w przyszłości. – Mechanizmy tym rządzące są jednak dla człowieka coraz trudniejsze do interpretacji lub wręcz nieinterpretowalne – przyznaje ppłk Kasprzyk.
Powstają zatem narzędzia, których zadaniem jest uprzystępnienie danych w taki sposób, by dało się je wykorzystać. Służą do tego m.in. mapy cieplne (heatmaps). Ich zadanie polega na wizualizacji danych w postaci graficznej, gdzie natężenie jakiejś cechy oddane jest kolorami, tak jak to widać w termowizji. Chodzi o to, by zobrazować poszczególne sytuacje, aby potem móc je interpretować. Mapy cieplne stosuje się do wizualizacji np. operacji biznesowych czy odkrywania wąskich gardeł transportu publicznego, istnieją nawet mapy cieplne walut.
Wydaje się oczywiste, że ten ocean danych znajduje różnorakie zastosowania, m.in. służy do zarządzania przestrzenią miejską. Na podstawie milionów zdjęć, które internauci publikują na facebookowych kontach, można bardzo precyzyjnie ustalić, które obszary, place, ulice czy pomniki są szczególnie często odwiedzane. To z kolei może służyć do wskazania miejsc, gdzie będą potrzebne np. przystanki komunikacji publicznej. Możliwe staje się także sterowanie ruchem miejskim w taki sposób, by był on płynny, odbywał się bez korków i zatorów, albo zarządzanie energią w taki sposób, by lampy nie oświetlały nocami pustych placów. W efekcie tych działań powstają tzw. inteligentne miasta, w których przestrzeń publiczna jest dostosowana do potrzeb mieszkańców.
Wiemy o tobie wszystko
Nic dziwnego, że Big Data budzi żywe zainteresowanie również służb odpowiedzialnych za pozyskiwanie informacji. – Pamięta pan »Raport mniejszości«?”– pyta ppłk Rafał Kasprzyk z WAT-u. W filmie Stevena Spielberga grający główną rolę Tom Cruise jest pracownikiem agencji prewencji, która wykorzystuje techniki prekognicji do przewidywania przestępstw. Bohater pojawia się w miejscach, gdzie ma dojść do zbrodni, i do nich nie dopuszcza. – Dziś ta wizja staje się rzeczywistością – podkreśla ppłk Kasprzyk. Choć oczywiście naukowcy, którzy starają się przewidzieć wydarzenia, posiłkują się nie parapsychologią, lecz twardymi danymi. – Policja w Memphis na przykład kilka lat temu wdrożyła pilotażowy program oparty na specjalnych narzędziach IBM. Na podstawie danych o przestępstwach popełnionych w przeszłości wskazuje on miejsca potencjalnie nimi zagrożone, policja zaś wysyła w tam patrole. Liczba przestępstw w mieście spadła ponoć o blisko 30% – wyjaśnia ppłk Kasprzyk.
Analiza Big Data to bowiem przyszłość także w dziedzinie globalnego bezpieczeństwa. Tyle że, jak zgodnie przyznają eksperci, kryje ona wiele pułapek. – Służby wywiadowcze stanęły przed wyzwaniem, które w skrócie określa się jako 4V: velocity, czyli szybkość, variety – różnorodność, volume – rozmiar, wreszcie veracity – wiarygodność – wylicza ppłk Kasprzyk.
Amerykanie używali Big Data w czasie wojskowych misji w Iraku i Afganistanie. Eli Berman, Joseph Felter i Jacob Shapiro, autorzy książki „Small Wars, Big Data: The Information Revolution in Modern Conflict”, opisują, że analitycy US Army odnotowywali tam wszelkie zdarzenia związane z zamachami na żołnierzy. Byli przy tym niezwykle precyzyjni. Zgromadzone dane pierwotnie zamierzali zestawić ze wskaźnikami ekonomicznymi i wyciągnąć z tego wnioski dotyczące szczegółowych skutków interwencji wojskowych. Wkrótce jednak w armii powstała specjalna komórka, która na podstawie zgromadzonych informacji próbowała przewidzieć prawdopodobieństwo ataków na patrole w określonych miejscach.
Analiza Big Data ma również zapobiegać problemom w skali makro. A wszystko dzięki narzędziom takim jak Global Database of Events, Language, and Tone (GDELT). Ten potężny system, stworzony przez zespół naukowców pod kierunkiem Kaleva Leetaru z Uniwersytetu Georgetown, gromadzi wszelkie wiadomości o konfliktach, demonstracjach, wojnach i niepokojach, począwszy od 1979 roku. W tym celu śledzi tysiące portali informacyjnych. Zebrane dane są poddawane obróbce przez specjalny algorytm i publikowane w formie raportów. Jak tłumaczy twórca narzędzia, wiele wojen dojrzewało w podobny sposób. Towarzyszyły im zbliżone emocje i okoliczności. Z gąszczu informacji można więc wyłowić sygnały, którym warto się przyjrzeć. Tymczasem GDELT nie jest jedyny. Od pewnego czas DARPA, czyli amerykańska agencja rządowa zajmująca się rozwojem technologii wojskowej, testuje komputerowy Integrated Crisis Early Warning System (ICEWS).
Rewolucję związaną z Big Data doceniają też służby innych krajów. Aharon Ze’evi-Farkash, były szef izraelskiego wywiadu wojskowego Aman, powiedział w maju 2018 roku, że każdego dnia agencja musi się uporać z opracowaniem 3 mld bitów informacji. Za tymi liczbami kryją się jednak dane, które bardzo pomagają w neutralizowaniu możliwych zagrożeń i zwiększaniu bezpieczeństwa kraju.
Jedną z istotnych dla służb kwestii jest identyfikacja osób, miejsc czy przedmiotów. W powszechnym użyciu są np. wyspecjalizowane programy do rozpoznawania tablic rejestracyjnych różnych krajów. Z kolei udostępnione w sieci fotografie służą coraz powszechniej używanym systemom identyfikowania tożsamości. Dysponując milionami fotografii, systemy rozpoznawania twarzy pomagają ustalić sprawców przestępstw, zidentyfikować tożsamość terrorystów czy osób niebezpiecznych, np. wrogich agentów. Systemy takie mają być (a nawet już są) umieszczane także w autonomicznych dronach, eliminujących wskazany cel, rozpoznawany przez sztuczną inteligencję.
Profile osobowe
Na całym świecie ogromną popularnością cieszą się serwisy społecznościowe, dzięki którym ludzie pozostają ze sobą w kontakcie, prowadzą rozmowy, nagrywają filmy czy przesyłają zdjęcia. O klikniętych polubieniach przeciętny użytkownik internetu zapomina dość szybko, treść komentarzy i wpisów też po jakimś czasie ulatuje mu z pamięci. One jednak wcale nie znikają, podobnie jak umieszczone w sieci zdjęcia czy filmy: wszystko to zostaje zarejestrowane przez system, skatalogowane i zarchiwizowane, tworząc tzw. cyfrowy ślad.
Na podstawie udostępnionych w sieci danych możliwe stało się tworzenie portretów psychologicznych każdego człowieka. Michał Kosiński, informatyk i jeden z twórców algorytmu, który opisuje modele osobowości użytkowników mediów społecznościowych, podsumował w jednym z wywiadów: „Na podstawie 70–100 lajków algorytm jest w stanie zdobyć podobną wiedzę na temat jednostki, co jego rodzina. Na podstawie 250 lajków system będzie znał nas lepiej niż małżonek”. Alexander Nix, prezes brytyjskiej firmy Cambridge Analytica, stwierdził swego czasu, że jest ona w stanie precyzyjnie ustalić osobowość każdego dorosłego w kraju.
Prowadzi to do nadużyć i manipulacji. W styczniu 2012 roku niemal 700 tys. niczego nieświadomych użytkowników Facebooka zostało poddanych przez firmę eksperymentowi, który później uznano za nieetyczny. Otóż, chcąc zbadać reakcję użytkowników, serwis udostępniał im wiadomości w pewien sposób zmodyfikowane. Części osób algorytmy podsuwały pozytywną treść emocjonalną, innym zaś – negatywną. Eksperyment pokazał zależność: podsuwając użytkownikom Facebooka wiadomości o określonym wydźwięku emocjonalnym, można wpłynąć także na ton kolejnych komentarzy. Zewnętrzni komentatorzy uznali wówczas, że firma dopuściła się niedozwolonej manipulacji emocjonalnej.
O zakrojone na szeroką skalę manipulacje oskarżono Cambridge Analytica, która była zaangażowana w podsuwanie internautom propagandowych, zmanipulowanych treści, podobno na zamówienie władz rosyjskich. Uważa się, że miało to wpływ m.in. na przebieg wyborów prezydenckich w Stanach Zjednoczonych oraz na ostateczny wynik referendum brexitowego w Wielkiej Brytanii.
Sceptycy zauważają, że wraz z powstaniem internetu służby otrzymały niemal doskonałe narzędzie inwigilacji i manipulacji. Gromadzenie i analiza przez nie jak największej liczby danych budzi opór demokratycznych społeczeństw. W 2013 roku szerokim echem odbiła się informacja „New York Timesa”, z której wynikało, że amerykańska Narodowa Agencja Bezpieczeństwa (National Security Agency – NSA) śledzi obywateli za pośrednictwem portali społecznościowych. Za sprawą Edwarda Snowdena na jaw wyszły dokumenty pokazujące skalę inwigilacji w sieci. Służą temu liczne, nadzorowane przez NSA programy. Jednym z nich jest Prism, który pozwala amerykańskiemu wywiadowi na dostęp do wszystkich treści zgromadzonych w serwerowniach największych amerykańskich firm telekomunikacyjnych, takich jak Microsoft, Yahoo, Google, Facebook, YouTube, Skype, AOL oraz Apple. Poza tym działają jeszcze inne programy, takie jak Upstream, służący do przechwytywania łączności elektronicznej. „Robimy tylko to, co konieczne, by ustrzec Amerykę przez terroryzmem”, tłumaczyli wówczas przedstawiciele agencji.
Dynamika światowych konfliktów zmienia się na naszych oczach. – Wydaje się, że epoka klasycznych wojen, gdzie dwie armie ścierają się na polu bitwy, powoli odchodzi w przeszłość. Dziś dużo bardziej opłaca się prowadzić działania hybrydowe, bo z punktu widzenia agresora ryzyko strat nimi spowodowanych jest dużo mniejsze – uważa dr Liedel. – Integralnym elementem takiej walki jest manipulacja stosowana w sieci – dodaje. I tu rodzi się pytanie: czy systemy analityczne są w stanie wyłowić z morza informacji te, które wskazałyby nam, że wkrótce padniemy ofiarą ataku zupełnie nowego typu?
– Znaczenie Big Data w kwestiach dotyczących bezpieczeństwa będzie rosło. Związane jest to z rozwojem technologii i zmieniającym się obliczem świata, także jeśli chodzi o dynamikę współczesnych konfliktów. Ważna będzie zwłaszcza umiejętna analiza tzw. źródeł otwartych. Bo tutaj obowiązuje zasada odwróconego trójkąta – 70%, nawet 80% przydatnych informacji to dane ogólnodostępne – twierdzi dr Liedel.
Tekst został opublikowany w styczniowym numerze „Polski Zbrojnej”. Miesięcznik można kupić m.in. w sklepie internetowym WIW http://www.sklep.polska-zbrojna.pl/
autor zdjęć: Dział-graficzny MOPIC / FOTOLIA
komentarze