Podziel się z innymi
Siedzimy naprzeciw siebie. Pacjent opowiada mi swoją historię, a ja słucham, obserwuję, wyławiam niuanse w jego mimice, tonacji głosu, sposobie dobierania słów. To człowiek, a ja jako psycholog staram się go zrozumieć i czasem przewidzieć jego zachowanie. A teraz wyobraźmy sobie, że naprzeciw nas siedzi algorytm. Nie ma oczu, nie czuje, ale „widzi” wzorce w danych, które ja mógłbym przeoczyć. Czy mogę mu zaufać? Czy powinienem?
Psychologia kryminalna przechodzi właśnie przez taką rewolucję. Algorytmy uczenia maszynowego, sztuczna inteligencja (AI) i zaawansowana analiza danych zmieniają sposób, w jaki typujemy sprawców, analizujemy zachowania przestępcze i oceniamy ryzyko powrotu do przestępstwa. Brzmi futurystycznie? A może trochę niepokojąco? Jedno i drugie. Przyjrzyjmy się bliżej.
Algorytmy w służbie sprawiedliwości
Gdy mówimy o nowych technologiach w psychologii kryminalnej, najczęściej mamy na myśli systemy oparte na uczeniu maszynowym i sztucznej inteligencji. Te narzędzia potrafią przetworzyć ogromne ilości danych, od historii kryminalnych, przez raporty policyjne, po nagrania z monitoringu, i wydobyć z nich wzorce, których ludzki umysł by nie dostrzegł (Berk, 2019).
Przykład? System COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), który jest używany w amerykańskim wymiarze sprawiedliwości do oceny ryzyka recydywy. Algorytm analizuje ponad sto zmiennych tj. wiek, historię kryminalną, sytuację rodzinną, używki a następnie oblicza prawdopodobieństwo, że dana osoba popełni ponownie przestępstwo (Dressel & Farid, 2018). Brzmi obiektywnie? Okazuje się, że nie do końca, ale o tym za moment.
Podobne systemy wspierają także profilowanie geograficzne. Algorytmy mogą przewidywać, gdzie i kiedy najprawdopodobniej dojdzie do przestępstwa, analizując dane historyczne o lokalizacji wcześniejszych zdarzeń. To tzw. predictive policing – policja predykcyjna (Perry et al., 2013). Brzmi jak science fiction (które nawet już gdzieś widzieliśmy), ale już działa w niektórych miastach na świecie.
Typowanie sprawców
Tradycyjne profilowanie psychologiczne opiera się na wiedzy, doświadczeniu i intuicji specjalisty. Profiler analizuje miejsce zbrodni, sposób działania sprawcy (modus operandi), ofiary i na tej podstawie buduje psychologiczny portret. To sztuka wymagająca lat praktyki i głębokiej znajomości psychopatologii.
Algorytmy idą o krok dalej. Potrafią przeanalizować tysiące spraw jednocześnie i znaleźć subtelne podobieństwa, których człowiek by nie zauważył. Badania pokazują, że modele uczenia maszynowego mogą z dużą skutecznością identyfikować charakterystyczne wzorce zachowań przestępczych i łączyć ze sobą sprawy popełnione przez tego samego sprawcę (Bennell & Canter, 2002).
W praktyce oznacza to, że algorytm może pomóc zawęzić krąg podejrzanych, wskazać geograficzny obszar działania sprawcy czy przewidzieć jego kolejne ruchy. Badanie Yokoty i Watanabe (2002) wykazało, że modele matematyczne oparte na teorii racjonalnego wyboru mogą skutecznie przewidywać lokalizację miejsca zamieszkania sprawców przestępstw seryjnych.
Jednak algorytm nie zastąpi ludzkiej intuicji i empatii. Nie zrozumie kontekstu emocjonalnego, nie wejdzie w skórę sprawcy, nie poczuje tego, co psycholog może wyczuć podczas bezpośredniego kontaktu. To narzędzie wspomagające, a nie zastępujące.
Ocena ryzyka recydywy
Jednym z najbardziej kontrowersyjnych zastosowań sztucznej inteligencji w psychologii kryminalnej jest ocena ryzyka powrotu do przestępstwa. Sędziowie, kuratorzy i psychologowie od lat próbują odpowiedzieć na pytanie: czy ta osoba znowu popełni przestępstwo, jeśli zostanie zwolniona?
Tradycyjnie opieramy się na narzędziach takich jak HCR-20 czy PCL-R (Hare Psychopathy Checklist), które wymagają klinicznej oceny przez specjalistę. Teraz algorytmy proponują „obiektywną” ocenę ryzyka opartą wyłącznie na danych. COMPAS to tylko jeden z wielu takich systemów.
Badania nad skutecznością tych narzędzi przynoszą mieszane rezultaty. Z jednej strony, metaanaliza Ægisdóttir i współpracownicy (2006) wykazała, że mechaniczne (statystyczne) metody przewidywania często przewyższają kliniczne osądy ekspertów. Z drugiej strony, Dressel i Farid (2018) pokazali, że algorytm COMPAS nie był bardziej dokładny niż oceny zwykłych ludzi bez specjalistycznego przeszkolenia. Obie grupy osiągały około 65% trafności.
Co więcej, okazało się, że algorytmy mogą powielać i wzmacniać uprzedzenia społeczne. Analiza ProPublica (2016) ujawniła, że COMPAS częściej klasyfikował czarnoskórych oskarżonych jako wysokie ryzyko recydywy, nawet gdy nie popełniali ponownie przestępstwa, podczas gdy białych oskarżonych częściej klasyfikował jako niskie ryzyko, mimo że faktycznie powracali do przestępczości.
Dylematy etyczne
I tu dochodzimy do sedna sprawy. Gdy algorytm pomyli się, a mylić się będzie, bo żadna metoda nie jest w sto procent dokładna, to kto ponosi odpowiedzialność? Programista? Sędzia, który zaufał systemowi? Psycholog, który włączył wynik algorytmu do swojej opinii?
Pierwszym dylematem jest transparentność. Wiele systemów AI działa jak „czarna skrzynka”. Wiemy, jakie dane wkładamy i jaki wynik otrzymujemy, ale nie rozumiemy, jak dokładnie algorytm doszedł do swojej konkluzji. To problem, gdy mówimy o tak fundamentalnych kwestiach jak wolność człowieka. Jeśli nie rozumiem, dlaczego algorytm uznał kogoś za wysokie ryzyko, jak mogę bronić tej decyzji? Jak mogę jej zaprzeczyć?
Drugi dylemat to uprzedzenia algorytmiczne (algorithmic bias). Algorytmy uczą się na danych historycznych, a te dane odzwierciedlają nierówności i uprzedzenia naszego społeczeństwa. Jeśli przez lata częściej zatrzymywano i skazywano osoby z określonych grup społecznych, algorytm „nauczy się”, że właśnie te grupy są bardziej przestępcze i będzie to powielał (Barocas & Selbst, 2016).
Trzeci dylemat dotyczy dehumanizacji. Psychologia kryminalna to nie tylko statystyka – to praca z człowiekiem, jego historią, traumą, potencjałem do zmiany. Gdy redukujemy osobę do liczby ryzyka wygenerowanej przez algorytm, tracimy coś fundamentalnego. Tracimy widzenie jej jako istoty zdolnej do zmiany, do naprawy błędów, do rozwoju.
Efekt Pygmaliona w cyfrowej erze
Znamy dobrze efekt Pygmaliona, gdy nasze oczekiwania wobec kogoś wpływają na jego zachowanie. Jeśli wierzymy, że uczeń jest zdolny, zaczynamy go traktować w sposób, który sprzyja jego rozwojowi i faktycznie osiąga lepsze wyniki. A jeśli etykietujemy go jako „trudnego”, nasze zachowanie może tę przepowiednię samospełniającą urzeczywistnić (Rosenthal & Jacobson, 1968).
Teraz wyobraźmy sobie osobę zwalnianą z więzienia, której algorytm przypisał wysokie ryzyko recydywy. Ta informacja wpływa na decyzje kuratora, potencjalnego pracodawcy, społeczności lokalnej. Osoba ta doświadcza stygmatyzacji, ograniczonych możliwości zatrudnienia, braku wsparcia. Czy w takiej sytuacji łatwiej jej będzie wrócić do przestępstwa? Prawdopodobnie tak. Algorytm nie tylko przewidział przyszłość, ale w pewnym sensie ją stworzył.
Perspektywa psychologiczna
Jako psycholodzy nie możemy pozwolić, by technologia przesłoniła nam to, co najważniejsze, czyli człowieka. Narzędzia oparte na AI mogą być wsparciem, ale nigdy nie powinny być wyrocznią.
Badania nad procesami decyzyjnymi pokazują, że jesteśmy podatni na automation bias tj. tendencję do nadmiernego polegania na systemach zautomatyzowanych i ignorowania informacji, które im przeczą (Goddard et al., 2011). Gdy komputer mówi „wysokie ryzyko”, trudno nam się z tym nie zgodzić, nawet jeśli nasze kliniczne doświadczenie podpowiada coś innego.
Dlatego tak ważne jest, by zachować krytyczny osąd kliniczny. Algorytm może wskazać kierunek, ale ostateczna ocena powinna zawsze uwzględniać pełny kontekst, czyli motywację do zmiany, dostępne wsparcie społeczne, indywidualne czynniki ochronne i ryzyka.
Co dalej?
Nie możemy zatrzymać postępu technologicznego. Nie powinniśmy też chcieć, gdyż narzędzia AI niosą ze sobą ogromny potencjał. Musimy je wykorzystywać mądrze i odpowiedzialnie.
Po pierwsze, potrzebujemy transparentności. Algorytmy używane w wymiarze sprawiedliwości muszą być zrozumiałe, weryfikowalne i podlegać niezależnym audytom (Mittelstadt et al., 2016).
Po drugie, musimy aktywnie przeciwdziałać uprzedzeniom. To oznacza różnorodność zespołów tworzących AI, regularne testowanie systemów pod kątem dyskryminacji i gotowość do korygowania błędów.
Po trzecie, niezbędne są jasne standardy etyczne i prawne. Kto odpowiada za błędy algorytmu? Jakie prawa ma osoba oceniana przez AI? Jak może się odwołać od automatycznej decyzji?
I wreszcie edukacja. Psycholodzy, prawnicy, sędziowie muszą rozumieć, jak działają te narzędzia, jakie mają ograniczenia i jak je odpowiedzialnie wykorzystywać.
Podsumowanie
Wracam myślami do mojej pracy terapeutycznej. Pacjent wciąż siedzi naprzeciw, a ja wciąż słucham. Może kiedyś obok będzie stał monitor pokazujący analizę algorytmu. Może to będzie pomocne. Jedno się nie zmieni – to ja, jako człowiek i psycholog, ponoszę odpowiedzialność za swoją ocenę i decyzję. Technologia może mnie wspierać, ale nie może mnie zastąpić.
Przyszłość psychologii kryminalnej leży w mądrej symbiozie człowieka i maszyny, gdzie każdy robi to, co potrafi najlepiej. Algorytmy przetwarzają dane, znajdują wzorce, wskazują statystyczne prawdopodobieństwa. A my, psycholodzy, patrzymy głębiej: w oczy, w historię, w potencjał. I pytamy nie tylko „jakie jest ryzyko?”, ale też „jak możemy pomóc?”.
Bo w końcu o to chodzi, prawda? Nie tylko o karanie i przewidywanie, ale o zrozumienie i zmianę. I tego żadna sztuczna inteligencja nas nie nauczy.
Bibliografia
Ægisdóttir, S., White, M. J., Spengler, P. M., Maugherman, A. S., Anderson, L. A., Cook, R. S., … & Rush, J. D. (2006). The meta-analysis of clinical judgment project: Fifty-six years of accumulated research on clinical versus statistical prediction. The Counseling Psychologist, 34(3), 341-382.
Barocas, S., & Selbst, A. D. (2016). Big data’s disparate impact. California Law Review, 104(3), 671-732.
Bennell, C., & Canter, D. V. (2002). Linking commercial burglaries by modus operandi: Tests using regression and ROC analysis. Science & Justice, 42(3), 153-164.
Berk, R. (2019). Machine learning risk assessments in criminal justice settings. Springer International Publishing.
Dressel, J., & Farid, H. (2018). The accuracy, fairness, and limits of predicting recidivism. Science Advances, 4(1), eaao5580.
Goddard, K., Roudsari, A., & Wyatt, J. C. (2011). Automation bias: A systematic review of frequency, effect mediators, and mitigators. Journal of the American Medical Informatics Association, 19(1), 121-127.
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1-21.
Perry, W. L., McInnis, B., Price, C. C., Smith, S. C., & Hollywood, J. S. (2013). Predictive policing: The role of crime forecasting in law enforcement operations. RAND Corporation.
Rosenthal, R., & Jacobson, L. (1968). Pygmalion in the classroom. The Urban Review, 3(1), 16-20.
Yokota, K., & Watanabe, S. (2002). Computer-based retrieval of suspects using similarity of modus operandi. International Journal of Police Science & Management, 4(1), 5-15.

psycholog i psychoterapeuta

