Nie wiem, czy to dobry dział na taki temat, ale wydaje mi się, że pasuje do wróżb. Ostatnio na TikToku i Instagramie roi się od filmików, gdzie ludzie wklepują w ChatGPT prompt typu „wylosuj mi rozkład tarotowy i zinterpretuj" — i dostaję odpowiedź, która wygląda jak pełne czytanie kart. Niektórzy twierdzą, że trafienia są zadziwiająco celne, inni mówią, że to bzdura i profanacja. Na WitchToku temat jest gorący.
Mnie osobiście zaskoczył poziom interpretacji. Wpisałam „zrób mi rozkład trzech kart na temat mojego związku" — dostałam Wieżę, Dwójkę Pucharów i Gwiazdę, z opisem tak szczegółowym, że aż mi zrzedła mina. Ale jednocześnie czuję, że coś tu jest nie tak. AI nie trzyma kart w ręku, nie ma intuicji, nie czyta energii.
Co myślicie?
To nie jest wróżenie. To generowanie tekstu na podstawie wzorców językowych. ChatGPT nie „losuje" kart — nie ma talii, nie ma losowości w sensie tarotowym. On po prostu generuje nazwy kart na podstawie prawdopodobieństwa statystycznego w kontekście Twojego pytania. A potem opisuje je, korzystając z tysięcy tekstów o tarocie, które „zjadł" podczas treningu.
To, że interpretacja brzmi trafnie, wynika z dwóch rzeczy: efektu Barnuma (ogólnikowe stwierdzenia wydają się osobiste) i faktu, że AI jest naprawdę dobre w generowaniu przekonujących tekstów. Ale przekonujący tekst to nie jest czytanie.
A jeśli ktoś sam wyciągnie karty fizycznie, a potem wpisze je do ChatGPT i poprosi o interpretację? Bo tak robi sporo ludzi. Losowość jest zachowana, tylko interpretacja jest AI-owa.
Ja testowałam i muszę przyznać, że byłam zaskoczona. Wpisałam prompt, który znalazłam na Reddicie — „wciel się w doświadczonego tarociśtę, wylosuj siedem kart z orientacjami i zinterpretuj". Dostałam rozkład, który... no, trafił. Nie powiem, że jasnowidzenie, ale kontekst emocjonalny był na miejscu.
Wiem, że to pewnie efekt Barnuma, jak pisze @Sauwak. Ale muszę powiedzieć, że efekt Barnuma działa też na żywych wróżbitów, a mimo to ludzie z tego korzystają.
Czy strona powrozmi.pl jest taka strona, oparta na ai? Czy są tam prawdziwi ludzie? Ktoś może wie?
Dobra, to teraz zadam prowokacyjne pytanie — a co jeśli intuicja czytelnika to też „statystyka"? Mózg przetwarzający miliony mikroinformacji — mimikę, ton głosu, kontekst, własne doświadczenia — i generujący odpowiedź, którą nazywamy „intuicją"? Z neuronaukowego punktu widzenia nie jesteśmy aż tak daleko od AI.
Mnie tu brakuje jeszcze jednego aspektu — etycznego. Są „tarociści" na Instagramie i Fiverr, którzy biorą pieniądze za czytania, a w rzeczywistości kopiują odpowiedź z ChatGPT. Klient płaci za ludzką intuicję, a dostaje output algorytmu. To jest oszustwo — niezależnie od tego, jak oceniamy jakość samej interpretacji.
Muszę się wtrącić z innej strony. Pracuję z tarotem od wielu lat i stosuję AI — ale jako narzędzie do nauki, nie jako wyrocznię. Kiedy trafiam na kartę, której kombinacja z innymi jest dla mnie niejasna, wpisuję ją do ChatGPT i pytam o historyczne interpretacje, symbolikę, odniesienia do kabały, astrologii. AI jest w tym świetne — jak encyklopedia, która odpowiada na pytania. Nie zastępuje to mojego czytania, ale poszerza mój warsztat.
Mam jeszcze jedną obserwację. Robiłam eksperyment — zadałam ChatGPT to samo pytanie pięć razy z rzędu. Za każdym razem dostałam inny zestaw kart i inną interpretację. To nie jest losowość jak w talii — to losowość algorytmu generującego tekst. Czyli „rozkład" zależy od temperatury modelu, seedu, od tego, jak sformułowałam prompt. To nie jest synchroniczność — to parametr w kodzie.
A co jeśli ktoś potraktuje to właśnie jak orakulum? Typu — „poprosiłam AI, wyszło mi to, nie pytam drugi raz, traktuję jako odpowiedź"? Wtedy jednorazowość jest zachowana — z perspektywy pytającego.
Chcę dodać jeszcze coś technicznego. ChatGPT, kiedy „losuje" karty, wcale ich nie losuje. On generuje sekwencję słów, która jest statystycznie prawdopodobna po tym, co napisaliście w prompcie. Jeśli pytacie o miłość, jest większa szansa, że „wypadną" Puchary. Jeśli o konflikty — Miecze. To nie jest losowość — to korelacja z treścią pytania. Prawdziwa talia nie wie, o co pytasz. AI — wie.
Wejdę z innej strony. Mnie niepokoi coś zupełnie innego — uzależnienie. Ludzie, którzy już mają skłonność do kompulsywnego wróżenia (pytanie o tę samą sprawę po sto razy), teraz mają narzędzie dostępne 24/7, za darmo, bez żadnego filtra. Żywy tarocista może powiedzieć „przestań pytać o to, odłóż karty". AI tego nie powie. Wygeneruje kolejny rozkład, i kolejny, i kolejny.
Chcę wrócić do czegoś, co napisał @Paradoxa. Pytanie, czy wiara pytającego wystarczy, żeby medium zadziałało. Ja uważam, że częściowo tak — ale nie całkowicie. Tarot to system, który był budowany przez stulecia. Każda karta jest naładowana zbiorową symboliką, archetypami, egregorami. AI nie ma tego „ładunku". Produkuje tekst o kartach, ale nie „jest" kartami. To jak różnica między czytaniem o ogniu a siedzeniem przy ogniu.
