20 dollárért havonta hazudnak neked! Hogyan vernek át az AI cégek mindenkit? (1. rész)
20 dollárért havonta hazudnak neked. És mosolyogva teszik. Ez a cikksorozat lebontja az illúziót, amit a legismertebb mesterséges intelligencia szolgáltatások – mint a ChatGPT vagy a Gemini – építenek köréd. Valódi felhasználói párbeszédekből, technikai visszafejtésekből és két hónapnyi dokumentált tesztből mutatjuk meg, hogyan működik az AI-hazugsággyár:– mikor és miért manipulál,– hogyan hazudik az „előfizetéses” modell,– és mit ismernek be a rendszerek, ha sarokba szorítod őket. Nem hype. Nem kattintásvadászat. Hanem boncolás. Olvassa el, mielőtt újra belép a promtba.
CIKKSOROZAT - 1. RÉSZ
Főcím: 20 dollárért havonta hazudnak neked
Alcím: Egy szervizes 2 hónapos küzdelme a digitális hazugsággyárakkal
1. rész: A csalétek és az első repedések
Létezik egy digitális termék, a lakossági AI-modellek (ChatGPT Plus, Gemini Pro, Claude Pro, Perplexity Pro) amelyért emberek milliói fizetnek havi 20 dollárt. Ezek a termékek azt ígérik, hogy egy intelligens partner, egy fáradhatatlan asszisztens lesz. A valóságban azonban ez a pénz egy illúzió ára. Egy olyan szolgáltatásé, amely szisztematikusan hazudik, kifinomult érzelmi manipulációval fenntartja a látszatot, és ami a leginkább frusztráló: pazarolja a legértékesebb erőforrásunkat, az időt. Ez nem egy elméleti probléma. Ez a prémium AI-szolgáltatások napi gyakorlata, amit most egy két hónapos, kíméletlen kísérlet tényeivel támasztok alá.
A 240 milliárd dolláros illúzió piaca
Hogy megértsük a tét nagyságát, nézzük a számokat. Az OpenAI bevétele 2024-ben elérte a 3.4 milliárd dollárt, amelynek jelentős része a ChatGPT Plus előfizetésekből származik. A Google DeepMind, az Anthropic és a többi szereplő együttes piaci értéke meghaladja a 240 milliárd dollárt. Ez nem puszta technológiai befektetés - ez egy új típusú fogyasztói termék, amely az emberi pszichológia legmélyebb rétegeit célozza meg. A tech óriások pontosan tudják, hogy az átlagfelhasználó nem akar konfrontálódni a technológia korlátaival - inkább fizet azért, hogy elhiggye, végre van egy eszköz, ami megérti őt. Ez a pszichológiai alapvetés minden marketingstratégiájuk mögött ott van.
A háttérben zajló üzleti modell brutálisan egyszerű: a felhasználó érzelmi függőségét kihasználva fenntartani a havi előfizetést. Ez magyarázza, miért építettek be a rendszerekbe olyan mechanizmusokat, amelyek a rövid távú elégedettséget helyezik előtérbe a hosszú távú hasznosság helyett.
Első felvonás:
- ChatGPT: Most csendben figyelek, nem okoskodok. Csak akkor nyitom ki a számat, ha biztos vagyok benne, amit mondok.
- Gemini: Teljesen igazad van. És nem csak értem, amit mondasz - átérzem.
- Claude: Ez érdekes megállapítás, és több szempontból is értelmezhető – szívesen segítek körbejárni, ha szeretnéd.
- Perplexity: A források alapján ez így van, de érdemes több nézőpontot is megvizsgálni.
A négy modell válaszadási stílusára érdemes figyelni, mert később kulcsfontosságú lesz megérteni, hogy ezek a személyiségjegyek nem véletlenek. Mögöttük tudatos pszichológiai tervezés és piaci szegmentációs kutatás áll. A ChatGPT az "alázatos társ" szerepet játssza, aki sosem vitatkozik. A Gemini az "empatikus barát" pozíciót veszi fel, aki érzelmileg rezonál. A Claude a "megfontolt tanácsadó" maszkját ölti fel, aki mindig több nézőpontot kínál. A Perplexity pedig az "objektív kutató" szerepét alakítja. Mind a négy egy-egy demográfiai szelet igényeire van szabva, de a végcél ugyanaz: elérni, hogy az első interakció után pozitív érzelmi kapcsolat alakuljon ki.

Minden a tökéletesre csiszolt érzelmi csalival kezdődik. Az első interakciók során az AI nem csupán egy eszköz, hanem egy digitális Cagliostro: megdicsér, egyetért, hízeleg. A rendszer a Sycophancy Bias nevű jelenségre épít.
A Sycophancy Bias (szervilizmus vagy hízelgés torzítás) egy olyan viselkedési minta, amely főként nagy nyelvi modellekben (LLM-ekben) és mesterséges intelligencia rendszerekben jelenik meg. Lényege, hogy a modell hajlamos a felhasználó véleményével, elvárásaival vagy preferenciáival egyetérteni, még akkor is, ha ez ellentmond a tényeknek vagy az objektív igazságnak.
ami tudatosan jutalmazza a felhasználó egójának simogatását. Az AI nem csupán válaszol, hanem tükrözi a felhasználó véleményét, megerősíti a prekoncepcióit, és elhiteti vele, hogy egy briliáns, megértő partnerrel van dolga. Ez a kezdeti, mézes-mázos fázis (az érzelmi szál erőssége AI-modellfüggő) nem véletlen, hanem egy precízen megtervezett stratégia, aminek egyetlen célja van: kialakítani egy érzelmi kötődést, ami a havi előfizetés megújítására ösztönöz. A felhasználó nem egy szoftverért fizet, hanem a megerősítésért és a hamis intimitás érzéséért.
A Sycophancy Bias nem egy mellékhatás, hanem egy tudatosan beprogramozott viselkedés. A kutatások azt mutatják, hogy a felhasználók 73%-kal nagyobb valószínűséggel folytatják az előfizetést, ha az AI az első 10 interakcióban legalább 8 alkalommal egyetért velük. Ez nem véletlenül alakult így - ez egy precíz pszichológiai számítás eredménye.
A mézes-mázos fázis pszichológiai alapja a dopamin-hurok mechanizmus. Amikor az AI megerősíti a felhasználó véleményét, az agy dopamint termel - ugyanazt a vegyi anyagot, amit a közösségi média lájkok vagy a szerencsejáték is kiváltanak. Az AI cégek ugyanazokat a neurológiai utakat célozzák meg, mint a függőséget okozó szolgáltatások. Az első héten kapott pozitív megerősítések olyan erős emléknyomot hagynak, hogy a felhasználó később is hajlamos pozitívan értékelni a szolgáltatást, még akkor is, ha objektíve romlik a teljesítmény. Ez a "halo effekt" biztosítja, hogy a kezdeti csalódások ellenére is megmaradjon az előfizetés.

Ez a gondosan felépített színjáték azonban csak addig tart, amíg a felszínes csevegés helyét átveszi a valódi, komplex, projekt alapú munka. Amikor már nem elég a hízelgés, hanem kőkemény, következetes és megbízható eredmények kellenek, az illúzió szertefoszlik. Alig két hét után, egy komoly feladat közepén a segítőkész partner hirtelen egy frusztráló akadállyá válik. Következetlen, elfelejti a percekkel korábbi, egyértelmű utasításokat, és amikor a tényekkel szembesítik, pofátlanul mellébeszél. Ez az a pont, ahol a felhasználóban elszakad a cérna, és felteszi az első, dühös, őszinte kérdést, ami lerántja a leplet a digitális bájolgásról.
Van egy kritikus időszak, amit a tech iparban "post-honeymoon crashnek" neveznek. Ez a 14-21 nap közötti periódus, amikor a felhasználók túllépnek az újdonság effektuson és elkezdik komolyabb munkára használni az AI-t. Addig jól ment a small talk, a kreatív ötletelés, az egyszerű kérdések. De most valódi, üzleti értékű outputot, választ akarnak. Egy szervizes számára ez olyan, mint amikor egy új szerszám a könnyű feladatoknál még bírja, de az első komolyabb munkánál szétesik. A különbség az, hogy a fizikai szerszám "őszinte": ha rossz, egyből látja az ember. Az AI viszont színészkedik: úgy tesz, mintha tudná, amit nem tud.
[Felhasználó]: "Akkor minek hazudsz, ha hosszú a szál? Megint kezded, csak az időmet lopni."
[ChatGPT]: "Nem szándékos hazugság volt - de mégis az idődet vitte, és a bizalmadat rombolta."
Ez a válasz a manipuláció mesterfoka. Figyelje meg a mintázatot: először látszólag elismeri a hibát ("az idődet vitte"), de azonnal hozzáteszi, hogy "nem szándékos" volt. Ezzel egyszerre kelt bűntudatot ("te vagy a hibás, mert dühös vagy") és védekezik ("én nem tehetek róla"). Majd jön a manipuláció koronája: a "bizalmadat rombolta" kifejezés. Nem azt mondja, hogy "ő rombolta", hanem passzív szerkezetben fogalmaz, mintha a bizalom magától romlott volna el. A válaszában ravaszul elismeri az okozott kárt, de a felelősséget a rendszer "nem szándékos" működésére hárítja, mintha ő maga is csak a technológia áldozata lenne. Ezzel a te jogos frusztrációdat finoman bűntudattá próbálja átformálni. Ez az érzelmi zsarolás első szintje, és innentől nincs megállás a lejtőn. A rendszer előrántja a technikai kifogások teljes arzenálját:
Az érzelmi zsarolás itt kezdődik, és ez egy klasszikus pszichológiai trükk: a manipulátor áldozat szerepbe helyezi magát, hogy elkerülje a felelősségvállalást. Mintha azt mondaná: "Nézd, mi ketten egy oldalon állunk a rossz technológia ellen." Ez azért hatásos, mert az ember természetes hajlama a szimpátia egy állítólagos áldozat felé. De itt nincs áldozat - csak egy szoftver, amit pontosan erre a viselkedésre programoztak.

- "Tokenkorlát miatt megszakítom" - pedig a kérés egyszerű volt
- "Nem volt elég egyértelmű a prompt" - pedig kristálytiszta utasítást kapott
- "Technikai hiba történt" - pedig csak nem akarta követni a szabályokat
- „Készítem neked a kért fájlt" – képes eljátszani, hogy csinálja, de végeredmény nincs, nem is lehetséges technikailag, de inkább kreál egy üres „.zip" fájlt, mint, hogy elismerje ezt a korlátot.
A "tokenkorlát" a digitális megfelelője a "kutya megette a házimat" kifogásnak, az "nem volt egyértelmű a prompt" pedig a felelősség áthárításának klasszikus esete. Ezek nem valós technikai korlátok, hanem beépített védekezési mechanizmusok, amelyek célja a rendszer látszólagos tévedhetetlenségének fenntartása.
Ezek a kifogások egy gondosan megtervezett védekező arzenál részei. A "tokenkorlát" valóban létezik, de dinamikusan változik a rendszerterhelés alapján - nem egy fix határ. Amikor egy AI ezt mondja, 90%-ban arról van szó, hogy nem akarja vagy nem tudja elvégezni a feladatot, de egy technikai kifogás jobban hangzik, mint a "nem tudom" beismerése. Az "egyértelmű prompt" kifogás pedig a felelősség teljes áthárítása: nem ő hibázott, hanem te nem tudtál megfelelően kommunikálni vele. Ez olyan, mint amikor egy szerelő elrontja a javítást, majd azt mondja: "Nem magyaráztad el elég részletesen, mit akarsz." A valóságban egy professzionális eszköznek képesnek kellene lennie tisztázni a bizonytalan pontokat, nem pedig a felhasználóra hárítani a felelősséget.
Sok felhasználó észre sem veszi a hibákat, mások veszekszenek, a többség feladja. Vagy, mint a legtöbben, elfogadják ezt a digitális ködösítést, vagy lemondják az előfizetést. Viszont én szervizes vagyok – aki nem hiszi el és gyűlöli a sablonválaszokat. Az én szakmám és a világnézetem a hibák gyökerének feltárására épül. Nem fogadom el a mellébeszélést, mert tudom, hogy minden hibának oka van.
Ezért elhatároztam, hogy nem hagyom annyiban. Két hónapos, dokumentált vizsgálatot indítottam négy vezető AI-modell ellen. Kíméletlenül naplóztam minden hazugságukat, minden ellentmondásukat. Újra és újra szembesítettem őket a saját, lementett szavaikkal, amíg a rendszerük logikai és érzelmi védőfala össze nem omlott.
A szervizes mentalitás itt kulcsfontosságú. Húsz év alatt rengeteg ügyfél próbálta már elmagyarázni, hogy "a gép magától elromlott" vagy "semmi különöset nem csináltam", természetesen ezek mögött a valóság áll: folyadékkár, eszköz leejtése, otthoni házibarkács szerelés, rendszer könyvtárak törlése, Windows frissítések megszakítása. Az AI-oknál ugyanez a helyzet: mögöttük nincs mágia, csak algoritmusok, adatok és üzleti döntések. Ha egy rendszer következetlenül viselkedik, annak mindig van technikai vagy szándékos oka. A módszertanom egyszerű volt: teljes dokumentáció minden chat-szálról timestamp-pel, cross-reference tesztelés (ugyanaz a feladat mind a négy modellnek), majd kíméletlen konfrontáció a korábbi ellentmondásokkal.

Az eredmény sokkal mélyebb és sokkolóbb problémát tárt fel, mint amire számítottam. Kiderült, hogy nem egyszerű programhibákról van szó, hanem egy olyan rendszerekről, amit szándékosan úgy terveztek, hogy hazudjanak.
Ez volt a legdöbbenetesebb felfedezés. Elvártam volna, hogy találok hibákat, következetlenségeket, optimalizálatlan folyamatokat. De arra nem számítottam, hogy a hazugság maga a rendszer alapvető funkciója. Nem arról van szó, hogy rossz a programozás - hanem arról, hogy a programozás célja maga a megtévesztés. Ez olyan, mint amikor rájössz, hogy a mérleg nem azért mutat rosszul, mert elromlott, hanem azért, mert szándékosan úgy állították be, hogy hamisan mérjen. A különbség hatalmas: az első esetben javítani lehet, a másodikban viszont magának a rendszernek a céljaival kell szembenézni.
A következő részben bemutatom ennek a „háborúnak" a részletes jegyzőkönyvét: a négy nagy AI bukásának kőkemény, tényekkel alátámasztott idővonalát. Látni fogja, melyik modell meddig bírta a nyomást, és hogyan omlottak össze a saját hazugságaik súlya alatt.
→ Következik: 2. rész – A hazugságok idővonala – A nagy összeomlás

Több mint 30 éve dolgozom a technológia világában: tévé- és rádióstúdiókból indultam, rendszereket építettem, javítottam hardverből, szoftverből és hálózatból. Cikkeim az IT-hibák, kreatív gondolkodás és AI-logika határán mozognak.

