Jakość w pułapce myślenia – o błędach poznawczych i o tym, jak ich unikać.

Ludzki mózg jest niesamowitym narzędziem, które – aby zapewnić pełnię postrzegania rzeczywistości – potrafi stworzyć nawet… nowy kolor. A mówiąc dokładnie: kolor różowy. Jeśli w słoneczny dzień po deszczu przyjrzycie się widniejącej na niebie tęczy, zauważycie, że nie zawiera ona koloru różowego. Jest to niemożliwe, ponieważ w fizycznej tęczy kolorów nie ma takiej długość fali elektromagnetycznej, która opisywałaby tę barwę. A jednak ludzie rozpoznają ten kolor. Jak to możliwe?

Ludzkie oko posiada receptory, które pozwalają odbierać trzy podstawowe barwy: czerwień, zieleń oraz niebieski. Kiedy do oka trafia długość fali, która odpowiada kolorowi czerwonemu, pobudzane są receptory odpowiadające tej barwie, a nasz mózg odbiera informację: ‚widzę kolor czerwony”. Analogicznie dzieję się w przypadku dwóch pozostałych barw. Kolory spoza zakresu podstawowego (żółty oraz cyjan) są już elementem pewnej sztuczki, którą wykonują nasze mózgi: nie mogąc zinterpretować dwóch sąsiadujących barw podstawowych, uśrednienia ich wartości. Pobudzenie wszystkich trzech receptorów pozwala nam widzieć biel. Prawdziwa magia dzieje się jednak wtedy, gdy do oka trafia światło z granic zakresu widzialnego (czyli czerwone i niebieskie): nasze mózgi mogłyby uśrednić wartości i rozpoznać kolor zielony, ale wtedy pobudzone byłyby receptory odpowiadające tej barwie. Z kolei konwencjonalna fizyka szukałaby rozwiązania w świetle spoza zakresu widzialnego…. ale nie nasze mózgi. One robią to, co potrafią najlepiej: wyobrażają sobie nowy kolor, dodając kolory różowy do szeregu znanych fizyce kolorów i, tym samym, zamykając koło barw. Wszystkie barwy powstają w naszej głowie, ale tylko różowy nie ma swojego fizycznego odpowiednika.

Wymyślenie nowej barwy to niesamowita sztuczka pokazująca, że mózg jest w stanie wiele zrobić, aby człowiek czuł się komfortowo w otaczającym go świecie. Ale pojęcie komfortu mózgu niekoniecznie pokrywa się z naszymi biznesowymi i zawodowymi oczekiwaniami. Aby przybliżyć Wam to drobne rozminięcie się interesów, zapraszam Was do świata, w którym mózg sypie sztuczkami niczym iluzjonista na estradzie: świata błędów poznawczych.

Słowem wstępu

Zacznijmy od przybliżenia samego terminu, co pozwoli nam wejść w temat płynnie. Polskie określenie „błędy poznawcze” jest raczej koślawe. Znacznie wolę angielską formę:

cognitive biases (w artykule dla własnej wygody pisania będę posługiwać się jednak polskim pojęciem). W języku angielskim słowo „bias” oznacza raczej skrzywienie, odchylenie czy pewną stronniczość. I w zasadzie tak należy raczej rozumieć to zagadnienie: jako skrzywienie w naszym postrzeganiu, odchylenie od typowego postrzegania rzeczywistości. Błędem jest dopiero to, co może powstać w wyniku takiego skrzywienia: podjęcie niekorzystnych decyzji czy działań. Niekiedy uleganie błędom poznawczym może prowadzić nawet do katastrofalnych skutków.

Do tej pory rozpoznano ogromną liczbę błędów poznawczych – na anglojęzycznej wikipedii lista wszystkich błędów, dla których istnieją artykuły, liczy około 200 pozycji. Gdybym chciała opowiedzieć o każdym z nich, rozważyć jego przyczyny i powiązania między poszczególnymi efektami, a na koniec wykazać ich wpływ na jakość, to obawiam się, że ten numer zamieniłby się w rozprawę naukową, a (niestety) Product Design Magazine ma ograniczoną liczbę stron. Wybrałam więc cztery błędy poznawcze, które przedstawię. Nie dokonałam jednak wyboru arbitralnie, ale skorzystałam z pracy „Cognitive Biases in Software Engineering: A Systematic Mapping Study” (R.l Mohanani, I. Salman; B. Turhan; P. Rodríguez; P. Ralph) – liczbowej analizy artykułów naukowych poświęconych zarówno wytwarzaniu oprogramowania, jak i błędom poznawczych. Tym sposobem autorzy pokazali, które błędy dla danego obszaru wytwarzania oprogramowania są najczęściej opisywane. A skoro się je opisuje w danym kontekście, to możemy założyć, że stwarzają również największe problemy! W badaniu przeanalizowano publikacje z takich obszarów, jak zarządzanie, design, projektowanie i zbieranie wymagań czy jakość oraz (mierzone osobno) testowanie. Skupiłam się na wynikach dla tych 3 ostatnich – definiowanie wymagań jest istotną częścią procesu zarządzania jakością.

Mózg na nieświadomce

Nim przejdziemy do meritum, wspomnę jeszcze koncepcję, którą Daniel Kahnemman opisał w kultowej już książce „Pułapki myślenia”, a która tłumaczy, dlaczego nasz mózg tak łatwo ulega skrzywieniom. Otóż według Kahnemmana działa on w dwóch trybach (u niego nazywanych systemami). Pierwszy, szybki i automatyczny, pozwala wykonywać operacje bezwysiłkowo lub niemalże bez wysiłku, nie kontrolujemy go – to taki autopilot, który pozwala nam niskim kosztem energetycznym poruszać się po otaczającym nas świecie. Drugi, który wymaga naszej pełnej uwagi i skupienia, pozwala na przykład wykonywać skomplikowane obliczenia i zwykle wiąże się ze świadomym działaniem. Ten pierwszy jest niedokładny, drugi – wymaga dużo energii. I, co ciekawe, pozwala działać temu pierwszemu, nieco niesfornemu, „w tle”  – jeśli zdarzyło Wam się podczas intensywnej pracy zjeść ulubione słodycze i nie pamiętać tego, zrozumiecie o co chodzi. Taki dygresyjny life-hack: słodycze nie są tutaj przypadkiem – cukier może zapewnić dużo energii w krótkim czasie, a mózg, działający w dużym skupieniu, poza naszą świadomością upomina się o to, czego mu w danym momencie potrzeba. Dlatego, jeśli chcecie ograniczyć liczbę kalorii, nie trzymajcie słodyczy przy stanowisku pracy.

Do większości błędów dochodzi przy takim obciążeniu kognitywnym systemu drugiego lub po prostu wtedy, gdy mózg korzysta tylko z tego pierwszego, aby oszczędzać cenną energię. Przełączaniu na system pierwszy sprzyjają też brak czasu i motywacji czy po prostu pragnienie dobrego samopoczucia.

Efekt potwierdzenia

W latach 60. ubiegłego wieku Peter Wason przeprowadził serię klasycznych eksperymentów, na których wariant być może niektórzy z Was natknęli się już w internecie.

Prosił badanych o odgadnięcie prostej reguły, według której akceptowane są trójki liczb. Na początku podawał badanym przykład, że dana trójka (2, 4, 6) spełnia tę regułę. Badani mogli tworzyć własne trójki liczb, a prowadzący mówił im, czy spełniają regułę, czy nie. Choć szukana reguła brzmiała „dowolna sekwencja rosnąca”, badani mieli wielkie trudności z jej odgadnięciem, często zakładając bardziej skomplikowane reguły, np. w stylu „środkowa liczba jest średnią pierwszej i trzeciej”. Na czym polegał błąd badanych? Zakładali oni pewną regułę, a następnie przeprowadzali testy jedynie po to, aby potwierdzić swoje przypuszczenia, podając trójki, które spełniały wymyślone przez nich reguły. Przykładowo: zgadując, że reguła brzmi „każda liczba jest o dwa większa od poprzedniej”, testowali trójki, które ją spełniają, takie jak (11, 13, 15) i (5, 7, 9), zamiast takich, które jej nie spełniają, jak np. (11, 12, 19). Eksperymenty pokazały, że ludzie próbują raczej potwierdzać swoje tezy, zamiast zaprzeczać. Zaobserwowany mechanizm nazwał „efektem potwierdzenia”.

Efekt ten wykracza oczywiście znacznie poza „szukanie trójek” – jest to tendencja do preferowania informacji, które potwierdzają wcześniejsze oczekiwania i hipotezy, niezależnie od tego, czy te informacje są prawdziwe. Do błędu potwierdzenia dochodzi wtedy, kiedy nadmiernie przywiązujemy wagę do argumentów, zdarzeń czy danych, które potwierdzają nasz punkt widzenia. Kiedy szukamy tego, co potwierdza naszą tezę, przy jednoczesnym ignorowaniu tego, co jej przeczy.

Przy testowaniu efekt potwierdzenia może przełożyć się na to, że podświadomie będziemy decydować się na wybór sprawdzonego sposobu testowania czy testowanie tych samych ścieżek. Jeśli zaś dane będziemy wybierać w podobny sposób, jak badani trójki, okaże się, że zakres danych niedostatecznie dobrze weryfikuje oprogramowanie.

Efekt zakotwiczenia

Czy wiecie, w jaki sposób uzyskać możliwie największą estymację dla zadania i zarezerwować sobie nieco więcej czasu na poranną kawę? Tuż przed estymacją rzućcie możliwie największą, absurdalną liczbą. A potem obserwujcie, jak z czegoś, co z powodzeniem mogło być „trójką”, robi się „piątka”. Jeśli jesteście product ownerami i chcecie docisnąć zespoł, po prostu podajcie możliwie małą liczbę – w drugą stronę działa równie skutecznie. Ten mechanizm jest nazywany efektem zakotwiczenia i może być nie lada utrapieniem w każdych liczbowych negocjacjach: polega na tym, że ostateczna cena może zależeć od pewnej wartości początkowej, która podawana jest jako punkt odniesienia. W zasadzie mówimy tu już o heurystyce (prostej procedurze pozwalającej udzielić adekwatnych, choć niedoskonałych odpowiedzi na trudne pytania). Heurystyka zakotwiczenia to „zaczepienie się” jakieś informacji, a następnie dostosowanie do tej informacji procesu wydawania sądu. Dowolna wartość liczbowa może wpłynąć na osąd innej wartości. Jako przykład przytoczę jedno z badań, opisane we wspomnianej już książce Kahnemana. Zadano wówczas ludziom dwa pytania: czy najwyższa sekwoja na świecie ma mniej czy więcej niż [X] metrów oraz jaką wysokość może mieć najwyższa sekwoja na świecie. Pierwsze pytanie miało dwa warianty wartości X: 365 metrów (kotwica wysoka) oraz 55 metrów (kotwica niska). W zależności, od tego, na jaką kotwicę trafili badani, ich szacunki się różniły. W przypadku wysokiej kotwicy badani szacowali wysokość na 257 metrów, przy niskiej – 86 metrów. To aż 171 metrów!

Jeśli zależy Wam na jakości, musicie też uważać przy szacowaniu ryzyka czy czasie, jakie potrzebujecie na wykonanie testów. Wystarczy, że ktoś przed zapytaniem Was o estymację czasu wspomni numer wersji oprogramowania (2.0) i nagle, zamiast zadeklarować potrzebnych 6 godzin, zadeklarujecie 3. Szacowanie wartości i wszelkiego rodzaju negocjacje bardzo istotnie mogą przekładać się na jakość, dlatego trzeba być ostrożnym.

Heurystyka reprezentatywności i dostępności

Kahneman i Tversky w jednym z badań przedstawili uczestnikom taki opis mężczyzny:

John jest 30-letnim, żonatym mężczyzną z 2 dzieci. Działa w lokalnych organizacjach politycznych. Jego hobby to kolekcjonowanie książkowych „białych kruków”. Jest elokwentny, przekonujący i nastawiony rywalizacyjnie. 

Następnie poprosili o odpowiedź na pytanie o to, jakie jest prawdopodobieństwo, że John jest raczej prawnikiem niż inżynierem. Po przeczytaniu opisu badani odpowiadali, że jest około 50-80% szans, na to, że John jest prawnikiem. Tymczasem, biorąc pod uwagę faktyczną liczbę prawników i inżynierów w USA, takie prawdopodobieństwo wynosi 30%.

Takie wnioskowanie na podstawie podobieństwa do przykładu typowego (w tym wypadku stereotypu) nazywa się heurystyką reprezentatywności. Każdy tworzy własne wzory na podstawie swojego doświadczenia, a następnie przyrównuje nowe zjawiska i osoby. Dobrym przykładem mechanizmu jest wybór liczb do losowania w Lotto. Prawdopodobieństwo, że zostaną wylosowane liczby 1, 2, 3, 4, 5, 6 jest dokładnie takie samo, jak wylosowanie każdego innego układu. Jednak w umysłach większości z nas taki układ nie jest dostatecznie reprezentatywny dla pojęcia losowości, dlatego gotowi jesteśmy zaniżać prawdopodobieństwo jego wylosowania.
W innym badaniu duet tych samych naukowców pokazał pięciu różnym grupom jedną z liter angielskiego alfabetu – K, L, N, R lub V – i prosił osoby badane o oszacowanie, czy w języku angielskim jest więcej słów, które zaczynają się na daną literę, czy takich, w których występuje ona na trzecim miejscu. Ponad 70% badanych stwierdziło, że więcej jest takich słów, w których te litery występują na początku – tymczasem słów, w których te litery występują na trzecim miejscu, jest prawie dwa razy więcej. Problem polega na tym, że łatwiej przywołać z pamięci te z literą na początku, bo nie musimy rozbierać słowa na atomy i liczyć, na którym miejscu znajduje się litera (co w języku angielskim utrudnia podobne brzmienie niektórych liter, na przykład „k” i „c”). Jeśli mówimy o bardziej prawdopodobnych zjawiskach, które łatwo przywołać do świadomości, mamy do czynienia z heurystyką dostępności.

Obie heurystyki mogą mieć wpływ na jakość. Może się to przekładać na tendencję do wyszukiwania znanych już błędów, które kojarzymy z danym oprogramowaniem. To, samo w sobie, jeszcze nie jest takie złe, ale może prowadzić do pomijania innych, mniej oczywistych błędów
. Jeżeli poprzednie wydanie wersji było bardzo dobre i nie zawierało wielu błędów, może to spowodować, że w następnym wydaniu nasze testy będą słabsze – wcześniejszy sukces uśpi naszą czujność, pozostającą pod dobrym wrażeniem wcześniejszego sukcesu.

Podsumowanie

Przedstawiłam tylko 4 z opisanych około 200 błędów. Zaledwie 4, które mogą wpływać na jakość naszych produktów – pomyślcie tylko co się zadzieje, jeśli prawdopodobieństwo ich wystąpienia pomnożymy przez wszystkie pozostałe! Choć nie wszystkie z nich przełożą się na jakość produktu, o który dbamy, to mogą wpłynąć na inne aspekty naszego życia zawodowego. Na przykład podstawowy błąd atrybucji spowoduje, że gotowi będziemy cichego kolegę z pracy uznać za nietowarzyskiego i pominiemy go w procesie integracji, choć jego spokojne zachowanie może wynikać z nadmiaru pracy, która wymaga skupienia. Efekt Dunninga-Krugera, polegający na tym, że osoby niewykwalifikowane w jakiejś dziedzinie mają tendencję do przeceniania swoich umiejętności, a osoby wysoko wykwalifikowane mają tendencję do zaniżania oceny swoich umiejętności, może utrudnić nam staranie się o awans. Efekt framingu, który wpływa na osądy w zależności od tego, jak zostało sformułowane to, na podstawie czego je wydajemy, może obniżyć naszą efektywność raportowania problemów. Mogłabym tak wymieniać w niemalże nieskończoność!

Jak wystrzec się błędów poznawczych? Najlepiej poznać wroga, aby wiedzieć, jak go omijać. Poza wspomnianą w artykule książką („Pułapki myślenia” Kahnemana) wydanych zostało wiele ciekawych publikacji. Zachęcam Was do lektury książek Dana Ariely’ego, które są nie tylko pouczające, ale momentami naprawdę zabawne. Warto również zapoznać się z jego wystąpieniami na YouTube. Kolejną ciekawą lekturą jest „Błądzą wszyscy (ale nie ja)” autorstwa Carol Tavris i Elliota Aronsona, która opowiada o silnym działaniu dysonansu poznawczego, który jest mistrzem wrabiania nas w podejmowanie niezbyt mądrych decyzji. Sporo do powiedzenia ma też Nassem Taleb (na przykład w kultowym „Czarnym łabędziu”) – choć jego publikacje niekoniecznie są lekkostrawne, to z pewnością ukazują luki w naszym myśleniu.

Mam nadzieję, że tymi strzępkami informacji udało mi się choć nieznacznie zainteresować Was tematem. Nic nie przekłada się na jakość tak intensywnie, jak występowanie błędów – w końcu cała ta jakość jest właśnie po to, aby ich unikać. Dlatego uważam, że warto, aby osoby, które odpowiadają za jakość, wiedziały, jak łatwo mogą zostać zwiedzione przez własny umysł.