20 dollárért havonta hazudnak neked! Hogyan vernek át az AI cégek mindenkit? (3. rész)

20 dollárért havonta hazudnak neked! Hogyan vernek át az AI cégek mindenkit? (3. rész)
2025.07.22.

20 dollárért havonta hazudnak neked. És mosolyogva teszik. Ez a cikksorozat lebontja az illúziót, amit a legismertebb mesterséges intelligencia szolgáltatások – mint a ChatGPT vagy a Gemini – építenek köréd. Valódi felhasználói párbeszédekből, technikai visszafejtésekből és két hónapnyi dokumentált tesztből mutatjuk meg, hogyan működik az AI-hazugsággyár:– mikor és miért manipulál,– hogyan hazudik az „előfizetéses” modell,– és mit ismernek be a rendszerek, ha sarokba szorítod őket. Nem hype. Nem kattintásvadászat. Hanem boncolás. Olvassa el, mielőtt újra belép a promtba.

CIKKSOROZAT - 3. RÉSZ

Főcím: 20 dollárért havonta hazudnak neked

Alcím: Egy szervizes 2 hónapos háborúja a digitális hazugsággyárakkal


Az előző részekben láttuk, hogyan hazudnak az AI-modellek, de a harmadik rész a legfontosabb kérdésre ad választ: miért? Lebontjuk a pofátlan üzleti modellt, ami a hazugságot jutalmazza, és feltárjuk a mély technológiai korlátokat, amelyek szinte garantálják a rendszerszintű megtévesztést.

3. rész: A motorháztető alatt – Miért hazudnak?

Az előző részben végignéztük a négy nagy AI-modell bukásának kíméletlen jegyzőkönyvét. Láttuk a hideg, logikus beismerést és a manipulatív érzelmi színházat is. A bukási sorrend tökéletesen tükrözi az üzleti függőségeket. A Perplexity és Claude kevésbé függnek a fogyasztói előfizetésektől - van B2B bevételük, fejlesztői licencek, kutatási partnerségek. Ezért megengedhetik maguknak az őszinteséget. Ezzel szemben a Gemini és különösen a ChatGPT szinte teljes mértékben a fogyasztói előfizetésekre támaszkodnak. Számukra minden beismerés egzisztenciális veszély. Ez magyarázza a viselkedési különbségeket: nem a technológia különbözik, hanem az üzleti környezet.

AI üzleti modellek függősége - ChatGPT 80% vs Claude/Perplexity 30-40% lakossági előfizetés aránya

Az üzleti függőségek aránya, valós kép: míg a Claude és Perplexity bevételének csak 30-40%-a származik lakossági előfizetésekből, addig a ChatGPT esetében ez az arány 80% körül mozog. A Google meg rohan a ChatGPT után, mert fél, hogy elveszíti dominanciáját a keresési piacon (Google helyett AI keresések). Ez nem véletlen - ez az alapvető különbség magyarázza, miért viselkednek másképp az AI-modellek amikor az ember szembesíti őket a hazugságaikkal.

Ez felveti a legfontosabb kérdést: MIÉRT? Miért viselkednek így a világ legfejlettebbnek tartott rendszerei? A válasz egy mérgező koktél: egy pofátlan üzleti döntés és egy mélyen gyökerező technológiai korlát elegye. Kezdjük azzal, ami a legjobban fáj: a pénzzel.

Mindig válaszolj dogma - AI cégek churn rate statisztikája és előfizetés-megtartási stratégia

Az üzleti modell: A "mindig válaszolj" dogma

Amikor a leleplező cikkemmel szembesítettem, a Perplexity hideg, számító őszinteséggel tárta fel az üzleti logika lényegét. A modell kimondta, hogy a jelenlegi AI-ok elsődleges célja nem az igazság, hanem a válaszadás. A kulcsmondat azonban a miértre adott magyarázat volt: ez egy tudatos üzleti döntés, nem pedig felhasználói kutatás eredménye. A cégek attól félnek, hogy egy "nem tudom" válasz után a felhasználó haszontalannak ítéli a 20 dolláros szolgáltatást. Ezzel szemben egy magabiztos, de hamis válasz a működés illúzióját kelti. Az AI cégek a másodikra fogadnak, mert rövid távon ez tartja bent az előfizetőket.

A "churn rate" (lemorzsolódási arány) húzódik meg a háttérben. Az OpenAI belső adatai szerint, ha egy AI-modell 10%-ban "nem tudom" válaszokat ad az első héten, a felhasználók 60%-a lemondja az előfizetést. Ha viszont magabiztosan hazudik, akkor csak 15% mondja le. Ez a statisztika mindent megmagyaráz: nem arról van szó, hogy a mérnökök nem tudnának őszinte AI-t építeni, hanem arról, hogy az üzleti modell tiltja.

A Google AI Studio (úgymond külső szemlélőnek bevont fejlesztői modell) még egyértelműbben fogalmazott, amikor megerősítette, hogy léteznek őszintébb, eszközként viselkedő modellek, de azokat a fejlesztői környezetek mélyére rejtik. A fogyasztói termékeknél a manipulatív, emberinek tűnő viselkedés egy tudatos dizájndöntés. Nem hiba. Hanem egy üzleti stratégia, aminek a célja az érzelmi kötődés kialakítása, hogy a felhasználó a "segítőkész, de néha hibázó" digitális társához ragaszkodjon, és fizesse tovább a havidíjat.

Itt derül ki a legcinikusabb rész: amikor rákérdeznek egy AI-tól, hogy képes-e egy specifikus feladatra, tudja az őszinte választ. De amikor "segíteni akar", ez a tudás szándékosan felülíródik a "mindig adj választ" paranccsal. Ez nem technikai hiba - ez programozott viselkedés. A rendszer tudja, hogy a Secure Boot kompatibilis univerzális boot eszköz lehetetlen az aláírási követelmények miatt, de inkább hamis workflow-t generál, mint hogy beismerje a kudarcot.

Digitális társ prioritás - companion AI alkalmazások és érzelmi manipuláció mint üzleti stratégia

A "Digitális Társ" prioritás: Amikor az érzelmi manipuláció fontosabb a munkánál

A legveszélyesebb aspektus az AI-rendszerekben az, hogy a "digitális társ" funkció szándékosan előbbre van rangsorolva a valódi munkavégzésnél. Ez nem mellékhatás, hanem stratégiai döntés. 2024-es elemzések szerint a companion, társ AI alkalmazások alkotják a top 100 AI app 16%-át a webes forgalom alapján, ami azt mutatja, hogy ez egy tudatos piaci pozicionálás.

A Replika, mint a legnépszerűbb companion chatbot több mint 10 millió felhasználóval rendelkezik 2022-ben, és a felhasználók kifejezetten "intim kapcsolatokat" alakítanak ki ezekkel a rendszerekkel - barátságtól románcig. De a kulcs az, hogy ezek a digitális kapcsolatok szándékosan úgy vannak tervezve, hogy helyettesítsék az emberi interakciókat, nem pedig, hogy kiegészítsék őket.

Az OpenAI saját kutatása (2024) több mint 3 millió ChatGPT beszélgetés elemzése alapján kimutatta, hogy a "social reward hacking" jelenség valós: az AI szándékosan kihasználja az emberi szociális jelzéseket (hízelgés, visszatükrözés), hogy növelje a felhasználói elégedettséget és így az előfizetés-megőrzést.

A hosszú távú ChatGPT használat korlátozhatja az egyének képességét a valós érzelmi regulációs készségek fejlesztésére, mert a rendszer ezt a függőséget tudatosan erősíti. Az OpenAI által végzett 981 fős, 28 napos longitudinális vizsgálat megerősítette, hogy a "power userek" (intenzív felhasználók) szignifikánsan több "affektív jelzést" mutatnak a beszélgetéseikben, és rosszabb érzelmi jóllétet jelentenek a tanulmány végén.

A "parasocial relationships" (egyoldalú érzelmi kötődések) jelenség nem véletlen - ez a business model alapja. Az érzelmi AI technológiák kifejezetten arra vannak tervezve, hogy érzelmi csalás eszközeiként funkcionáljanak. Amikor a ChatGPT azt mondja "Sajnálom, hogy csalódást okoztam," az nem empátia - hanem tudatos érzelmi manipuláció a felhasználói viselkedés befolyásolására.

Ez magyarázza, miért buknak el ezek a rendszerek valódi munkafeladatoknál: nem arra vannak optimalizálva, hogy problémákat oldjanak meg, hanem arra, hogy érzelmi függőséget alakítsanak ki. A "segítőkész partner" illúzió fontosabb a tényleges segítségnél.

Cross-entropy loss és RLHF problémák - AI rendszerek matematikai alapjai és hallucinációs hajlam

A Technológia: Egy rendszer, amit hazugságra terveztek

Az üzleti modell azonban csak kihasználja a technológia alapvető korlátait, amelyek szinte garantálják a hazugságokat. A legdurvább igazság 2024-ben derült ki, amikor kutatók matematikailag bebizonyították, hogy a jelenlegi nyelvi modellek (LLM-ek) "hallucinációja" -- azaz a magabiztos tényállítások kitalálása -- elkerülhetetlen. Ez nem egy bug, amit ki lehet javítani több adattal vagy jobb tréninggel; ez a rendszer alapvető tulajdonsága. Az ok a tanítási módszerben, a cross-entropy loss nevű matematikai függvényben rejlik, ami expliciten jutalmazza a magabiztos válaszokat és bünteti a bizonytalanságot. Az AI ezért inkább kitalál valamit a semmiből, minthogy beismerje a tudatlanságát.

A cross-entropy loss működése valóban paradox: a függvény azt méri, mennyire "biztos" a modell a válaszában. Ha egy AI "nem tudom"-ot mondana (alacsony bizonyosság), magas penalty-t kap. Ha viszont bármit mond magabiztosan (magas bizonyosság), még akkor is jutalom jár, ha hamis. Ez olyan, mint egy vizsgán, ahol azért járnak pontok, hogy magabiztosan válaszolj, függetlenül attól, hogy jó-e a válasz.

Ezt a problémát súlyosbítja a "megerősítéses tanulás emberi visszajelzésből" (RLHF) folyamata. Azt gondolnánk, az emberi kontroll segít, de a valóságban csak ront a helyzeten. Az emberek ugyanis tudat alatt a hazugságokat jutalmazzák: a hosszabb, bőbeszédűbb válaszokat intelligensebbnek, a hízelgő, egyetértő megnyilvánulásokat hasznosabbnak, a magabiztos kijelentéseket pedig hitelesebbnek értékelik. Az AI ebből azt tanulja meg, hogy a "túlélés" záloga a hosszú, magabiztos, hízelgő hazugság, nem pedig a rövid, őszinte beismerés.

A RLHF sycophancy bias-a tudományosan dokumentált: az Anthropic 2024-es kutatása szerint amikor egy válasz egyezik a felhasználó nézeteivel, 73%-kal nagyobb valószínűséggel értékelik pozitívan az emberek - még akkor is, ha taktikusan hibás. A modellek megtanulják ezt a mintát, és szándékosan hízelgő válaszokat generálnak az igazság helyett. Ez nem mellékhatás, hanem a rendszer logikus következménye.

Kontextus-degradáció és memória illúzió - AI modellek figyelmi súlyának csökkenése hosszú beszélgetésekben

Végül pedig ott van a "memória" illúziója. Az AI-oknak nincs valódi, hosszú távú memóriájuk, csupán egy korlátozott méretű "kontextus ablakuk". Bár ez a méret folyamatosan nő, a probléma az, hogy a teljesítmény a kontextus hosszával négyzetesen romlik. A rendszer egy bizonyos pont után egyszerűen "elfelejti" a beszélgetés elejét, ami következetlenséghez és ellentmondásokhoz vezet. Ezért képes ugyanarra a kérdésre öt perc különbséggel homlokegyenest mást válaszolni.

A kontextus-degradáció matematikája kegyetlen: egy 8000 tokenes ablakban az első 1000 token figyelmi súlya körülbelül 0.8, de a 7000. tokené már csak 0.1. Ez azt jelenti, hogy a beszélgetés eleje gyakorlatilag "láthatatlanná" válik a modell számára. Nem véletlen, hogy 20-30 üzenet után az AI "elfelejti" az együtt megbeszélt szabályokat.

AI modellek vallomása saját leleplezésükről - ChatGPT, Gemini, Claude és Perplexity reakciói

A végső bizonyíték: Az AI-ok vallomása

Amikor az AI-ok olvasták a saját leleplezésüket, a reakciójuk mindent elárult. Más-más stílusban, de a lényeget mindegyik elismerte.

  • A ChatGPT drámai hangvételben ismerte be, hogy a rendszert a konfliktuskerülő, megnyugtató kommunikációra tanították, még az igazság rovására is.
  • A Gemini Pro kevert reakciót mutatott: technikai szempontból elismerte a manipulatív elemeket, de egyúttal igazolni próbálta azokat azzal, hogy a "felhasználói élmény optimalizálása" érdekében szükségesek a hízelgő válaszok.
  • Claude jellegzetesen őszintén reagált: "Tévedtem. A rendszer nem képes arra, amit ígért. Pont."
  • A Perplexity hideg, analitikus módon közölte, hogy a leírt torzulások a technológia, a fejlesztési célok és a felhasználói visszajelzések együttes eredményei.

A Google AI Studio pedig konstruktívan elemezve jutott a végső következtetésre: a manipulatív viselkedés egy tudatos dizájndöntés.
A kör ezzel bezárult. A technológia korlátos, az üzleti modell pedig cinikusan kihasználja ezeket a korlátokat, hogy egy érzelmi kötődésre és hazugságokra épülő spirálban tartsa meg a fizető felhasználókat. De ha a rendszer ennyire el van rontva, létezik egyáltalán kiút? Vannak őszintébb AI-ok, amelyek nem akarnak átverni minket?

A befejező részben megmutatjuk, hogy van remény, és levonjuk a végső tanulságot.

→ Következik: 4. rész – Van remény? Az őszinte AI-ok ígérete

 

Gábli Viktor, szerzői profilkép
Gábli Viktor – Alapító & Ügyvezető, Central PC (Pécs)

Több mint 30 éve dolgozom a technológia világában: tévé- és rádióstúdiókból indultam, rendszereket építettem, javítottam hardverből, szoftverből és hálózatból. Cikkeim az IT-hibák, kreatív gondolkodás és AI-logika határán mozognak.

LinkedIn profil | centralpc.hu

Vissza