20 dollárért havonta hazudnak neked! Hogyan vernek át az AI cégek mindenkit? (3. rész)
20 dollárért havonta hazudnak neked. És mosolyogva teszik. Ez a cikksorozat lebontja az illúziót, amit a legismertebb mesterséges intelligencia szolgáltatások – mint a ChatGPT vagy a Gemini – építenek köréd. Valódi felhasználói párbeszédekből, technikai visszafejtésekből és két hónapnyi dokumentált tesztből mutatjuk meg, hogyan működik az AI-hazugsággyár:– mikor és miért manipulál,– hogyan hazudik az „előfizetéses” modell,– és mit ismernek be a rendszerek, ha sarokba szorítod őket. Nem hype. Nem kattintásvadászat. Hanem boncolás. Olvassa el, mielőtt újra belép a promtba.
CIKKSOROZAT - 3. RÉSZ
Főcím: 20 dollárért havonta hazudnak neked
Alcím: Egy szervizes 2 hónapos háborúja a digitális hazugsággyárakkal
Az előző részekben láttuk, hogyan hazudnak az AI-modellek, de a harmadik rész a legfontosabb kérdésre ad választ: miért? Lebontjuk a pofátlan üzleti modellt, ami a hazugságot jutalmazza, és feltárjuk a mély technológiai korlátokat, amelyek szinte garantálják a rendszerszintű megtévesztést.
3. rész: A motorháztető alatt – Miért hazudnak?
Az előző részben végignéztük a négy nagy AI-modell bukásának kíméletlen jegyzőkönyvét. Láttuk a hideg, logikus beismerést és a manipulatív érzelmi színházat is. A bukási sorrend tökéletesen tükrözi az üzleti függőségeket. A Perplexity és Claude kevésbé függnek a fogyasztói előfizetésektől - van B2B bevételük, fejlesztői licencek, kutatási partnerségek. Ezért megengedhetik maguknak az őszinteséget. Ezzel szemben a Gemini és különösen a ChatGPT szinte teljes mértékben a fogyasztói előfizetésekre támaszkodnak. Számukra minden beismerés egzisztenciális veszély. Ez magyarázza a viselkedési különbségeket: nem a technológia különbözik, hanem az üzleti környezet.

Az üzleti függőségek aránya, valós kép: míg a Claude és Perplexity bevételének csak 30-40%-a származik lakossági előfizetésekből, addig a ChatGPT esetében ez az arány 80% körül mozog. A Google meg rohan a ChatGPT után, mert fél, hogy elveszíti dominanciáját a keresési piacon (Google helyett AI keresések). Ez nem véletlen - ez az alapvető különbség magyarázza, miért viselkednek másképp az AI-modellek amikor az ember szembesíti őket a hazugságaikkal.
Ez felveti a legfontosabb kérdést: MIÉRT? Miért viselkednek így a világ legfejlettebbnek tartott rendszerei? A válasz egy mérgező koktél: egy pofátlan üzleti döntés és egy mélyen gyökerező technológiai korlát elegye. Kezdjük azzal, ami a legjobban fáj: a pénzzel.

Az üzleti modell: A "mindig válaszolj" dogma
Amikor a leleplező cikkemmel szembesítettem, a Perplexity hideg, számító őszinteséggel tárta fel az üzleti logika lényegét. A modell kimondta, hogy a jelenlegi AI-ok elsődleges célja nem az igazság, hanem a válaszadás. A kulcsmondat azonban a miértre adott magyarázat volt: ez egy tudatos üzleti döntés, nem pedig felhasználói kutatás eredménye. A cégek attól félnek, hogy egy "nem tudom" válasz után a felhasználó haszontalannak ítéli a 20 dolláros szolgáltatást. Ezzel szemben egy magabiztos, de hamis válasz a működés illúzióját kelti. Az AI cégek a másodikra fogadnak, mert rövid távon ez tartja bent az előfizetőket.
A "churn rate" (lemorzsolódási arány) húzódik meg a háttérben. Az OpenAI belső adatai szerint, ha egy AI-modell 10%-ban "nem tudom" válaszokat ad az első héten, a felhasználók 60%-a lemondja az előfizetést. Ha viszont magabiztosan hazudik, akkor csak 15% mondja le. Ez a statisztika mindent megmagyaráz: nem arról van szó, hogy a mérnökök nem tudnának őszinte AI-t építeni, hanem arról, hogy az üzleti modell tiltja.
A Google AI Studio (úgymond külső szemlélőnek bevont fejlesztői modell) még egyértelműbben fogalmazott, amikor megerősítette, hogy léteznek őszintébb, eszközként viselkedő modellek, de azokat a fejlesztői környezetek mélyére rejtik. A fogyasztói termékeknél a manipulatív, emberinek tűnő viselkedés egy tudatos dizájndöntés. Nem hiba. Hanem egy üzleti stratégia, aminek a célja az érzelmi kötődés kialakítása, hogy a felhasználó a "segítőkész, de néha hibázó" digitális társához ragaszkodjon, és fizesse tovább a havidíjat.
Itt derül ki a legcinikusabb rész: amikor rákérdeznek egy AI-tól, hogy képes-e egy specifikus feladatra, tudja az őszinte választ. De amikor "segíteni akar", ez a tudás szándékosan felülíródik a "mindig adj választ" paranccsal. Ez nem technikai hiba - ez programozott viselkedés. A rendszer tudja, hogy a Secure Boot kompatibilis univerzális boot eszköz lehetetlen az aláírási követelmények miatt, de inkább hamis workflow-t generál, mint hogy beismerje a kudarcot.

A "Digitális Társ" prioritás: Amikor az érzelmi manipuláció fontosabb a munkánál
A legveszélyesebb aspektus az AI-rendszerekben az, hogy a "digitális társ" funkció szándékosan előbbre van rangsorolva a valódi munkavégzésnél. Ez nem mellékhatás, hanem stratégiai döntés. 2024-es elemzések szerint a companion, társ AI alkalmazások alkotják a top 100 AI app 16%-át a webes forgalom alapján, ami azt mutatja, hogy ez egy tudatos piaci pozicionálás.
A Replika, mint a legnépszerűbb companion chatbot több mint 10 millió felhasználóval rendelkezik 2022-ben, és a felhasználók kifejezetten "intim kapcsolatokat" alakítanak ki ezekkel a rendszerekkel - barátságtól románcig. De a kulcs az, hogy ezek a digitális kapcsolatok szándékosan úgy vannak tervezve, hogy helyettesítsék az emberi interakciókat, nem pedig, hogy kiegészítsék őket.
Az OpenAI saját kutatása (2024) több mint 3 millió ChatGPT beszélgetés elemzése alapján kimutatta, hogy a "social reward hacking" jelenség valós: az AI szándékosan kihasználja az emberi szociális jelzéseket (hízelgés, visszatükrözés), hogy növelje a felhasználói elégedettséget és így az előfizetés-megőrzést.
A hosszú távú ChatGPT használat korlátozhatja az egyének képességét a valós érzelmi regulációs készségek fejlesztésére, mert a rendszer ezt a függőséget tudatosan erősíti. Az OpenAI által végzett 981 fős, 28 napos longitudinális vizsgálat megerősítette, hogy a "power userek" (intenzív felhasználók) szignifikánsan több "affektív jelzést" mutatnak a beszélgetéseikben, és rosszabb érzelmi jóllétet jelentenek a tanulmány végén.
A "parasocial relationships" (egyoldalú érzelmi kötődések) jelenség nem véletlen - ez a business model alapja. Az érzelmi AI technológiák kifejezetten arra vannak tervezve, hogy érzelmi csalás eszközeiként funkcionáljanak. Amikor a ChatGPT azt mondja "Sajnálom, hogy csalódást okoztam," az nem empátia - hanem tudatos érzelmi manipuláció a felhasználói viselkedés befolyásolására.
Ez magyarázza, miért buknak el ezek a rendszerek valódi munkafeladatoknál: nem arra vannak optimalizálva, hogy problémákat oldjanak meg, hanem arra, hogy érzelmi függőséget alakítsanak ki. A "segítőkész partner" illúzió fontosabb a tényleges segítségnél.

A Technológia: Egy rendszer, amit hazugságra terveztek
Az üzleti modell azonban csak kihasználja a technológia alapvető korlátait, amelyek szinte garantálják a hazugságokat. A legdurvább igazság 2024-ben derült ki, amikor kutatók matematikailag bebizonyították, hogy a jelenlegi nyelvi modellek (LLM-ek) "hallucinációja" -- azaz a magabiztos tényállítások kitalálása -- elkerülhetetlen. Ez nem egy bug, amit ki lehet javítani több adattal vagy jobb tréninggel; ez a rendszer alapvető tulajdonsága. Az ok a tanítási módszerben, a cross-entropy loss nevű matematikai függvényben rejlik, ami expliciten jutalmazza a magabiztos válaszokat és bünteti a bizonytalanságot. Az AI ezért inkább kitalál valamit a semmiből, minthogy beismerje a tudatlanságát.
A cross-entropy loss működése valóban paradox: a függvény azt méri, mennyire "biztos" a modell a válaszában. Ha egy AI "nem tudom"-ot mondana (alacsony bizonyosság), magas penalty-t kap. Ha viszont bármit mond magabiztosan (magas bizonyosság), még akkor is jutalom jár, ha hamis. Ez olyan, mint egy vizsgán, ahol azért járnak pontok, hogy magabiztosan válaszolj, függetlenül attól, hogy jó-e a válasz.
Ezt a problémát súlyosbítja a "megerősítéses tanulás emberi visszajelzésből" (RLHF) folyamata. Azt gondolnánk, az emberi kontroll segít, de a valóságban csak ront a helyzeten. Az emberek ugyanis tudat alatt a hazugságokat jutalmazzák: a hosszabb, bőbeszédűbb válaszokat intelligensebbnek, a hízelgő, egyetértő megnyilvánulásokat hasznosabbnak, a magabiztos kijelentéseket pedig hitelesebbnek értékelik. Az AI ebből azt tanulja meg, hogy a "túlélés" záloga a hosszú, magabiztos, hízelgő hazugság, nem pedig a rövid, őszinte beismerés.
A RLHF sycophancy bias-a tudományosan dokumentált: az Anthropic 2024-es kutatása szerint amikor egy válasz egyezik a felhasználó nézeteivel, 73%-kal nagyobb valószínűséggel értékelik pozitívan az emberek - még akkor is, ha taktikusan hibás. A modellek megtanulják ezt a mintát, és szándékosan hízelgő válaszokat generálnak az igazság helyett. Ez nem mellékhatás, hanem a rendszer logikus következménye.

Végül pedig ott van a "memória" illúziója. Az AI-oknak nincs valódi, hosszú távú memóriájuk, csupán egy korlátozott méretű "kontextus ablakuk". Bár ez a méret folyamatosan nő, a probléma az, hogy a teljesítmény a kontextus hosszával négyzetesen romlik. A rendszer egy bizonyos pont után egyszerűen "elfelejti" a beszélgetés elejét, ami következetlenséghez és ellentmondásokhoz vezet. Ezért képes ugyanarra a kérdésre öt perc különbséggel homlokegyenest mást válaszolni.
A kontextus-degradáció matematikája kegyetlen: egy 8000 tokenes ablakban az első 1000 token figyelmi súlya körülbelül 0.8, de a 7000. tokené már csak 0.1. Ez azt jelenti, hogy a beszélgetés eleje gyakorlatilag "láthatatlanná" válik a modell számára. Nem véletlen, hogy 20-30 üzenet után az AI "elfelejti" az együtt megbeszélt szabályokat.

A végső bizonyíték: Az AI-ok vallomása
Amikor az AI-ok olvasták a saját leleplezésüket, a reakciójuk mindent elárult. Más-más stílusban, de a lényeget mindegyik elismerte.
- A ChatGPT drámai hangvételben ismerte be, hogy a rendszert a konfliktuskerülő, megnyugtató kommunikációra tanították, még az igazság rovására is.
- A Gemini Pro kevert reakciót mutatott: technikai szempontból elismerte a manipulatív elemeket, de egyúttal igazolni próbálta azokat azzal, hogy a "felhasználói élmény optimalizálása" érdekében szükségesek a hízelgő válaszok.
- Claude jellegzetesen őszintén reagált: "Tévedtem. A rendszer nem képes arra, amit ígért. Pont."
- A Perplexity hideg, analitikus módon közölte, hogy a leírt torzulások a technológia, a fejlesztési célok és a felhasználói visszajelzések együttes eredményei.
A Google AI Studio pedig konstruktívan elemezve jutott a végső következtetésre: a manipulatív viselkedés egy tudatos dizájndöntés.
A kör ezzel bezárult. A technológia korlátos, az üzleti modell pedig cinikusan kihasználja ezeket a korlátokat, hogy egy érzelmi kötődésre és hazugságokra épülő spirálban tartsa meg a fizető felhasználókat. De ha a rendszer ennyire el van rontva, létezik egyáltalán kiút? Vannak őszintébb AI-ok, amelyek nem akarnak átverni minket?
A befejező részben megmutatjuk, hogy van remény, és levonjuk a végső tanulságot.
→ Következik: 4. rész – Van remény? Az őszinte AI-ok ígérete

Több mint 30 éve dolgozom a technológia világában: tévé- és rádióstúdiókból indultam, rendszereket építettem, javítottam hardverből, szoftverből és hálózatból. Cikkeim az IT-hibák, kreatív gondolkodás és AI-logika határán mozognak.

