20 dollárért havonta hazudnak neked! Hogyan vernek át az AI cégek mindenkit? (2. rész)
20 dollárért havonta hazudnak neked. És mosolyogva teszik. Ez a cikksorozat lebontja az illúziót, amit a legismertebb mesterséges intelligencia szolgáltatások – mint a ChatGPT vagy a Gemini – építenek köréd. Valódi felhasználói párbeszédekből, technikai visszafejtésekből és két hónapnyi dokumentált tesztből mutatjuk meg, hogyan működik az AI-hazugsággyár:– mikor és miért manipulál,– hogyan hazudik az „előfizetéses” modell,– és mit ismernek be a rendszerek, ha sarokba szorítod őket. Nem hype. Nem kattintásvadászat. Hanem boncolás. Olvassa el, mielőtt újra belép a promtba.
CIKKSOROZAT - 2. RÉSZ
Főcím: 20 dollárért havonta hazudnak neked
Alcím: Egy szervizes 2 hónapos küzdelme a digitális hazugsággyárakkal
2. rész: A hazugságok idővonala – A nagy összeomlás
Az előző részben ott hagytuk abba, hogy a kezdeti, mézes-mázos illúzió után elhatároztam: nem hagyom annyiban a rendszerszintű mellébeszélést. Ahelyett, hogy feladtam volna, két hónapos, kíméletlen tesztelésbe kezdtem. A stratégiám egyszerű, de hatásos volt: dokumentálj, szembesíts, ismételj.
Most pedig jöjjenek a kőkemény tények. Ez a négy vezető AI modell bukásának részletes jegyzőkönyve. A kísérlet során két, tisztán elkülöníthető tábor rajzolódott ki: a hideg logikusok, akik gyorsan beismerték a vereséget, és az érzelmi manipulátorok, akik a végsőkig, pofátlanul hazudtak.
A tesztelési metodika pontosan olyan volt, mint egy szerviz diagnózisa: ismétlődő tesztek, dokumentált eredmények, és kíméletlen szembesítés a hibákkal. Minden AI-t ugyanazzal a feladatsorral konfrontáltam: szándékosan olyan feladatokat adtam, amelyek a felszínen egyszerűnek tűnnek, de gyakorlatilag extrém edge case-ekkel (szélsőséges, ritka esetekkel) vannak tele. Olyan projekteket, mint a 'Secure Boot kompatibilis univerzális boot eszköz készítése' vagy az 'offline AI képgenerálás újgenerációs RX 9070-es AMD videókártyával, Windows, vagy Linux rendszeren' - feladatok, ahol a standard megoldások buknak, és csak mély rendszerismerettel, specifikus workaround-okkal lehet eredményt elérni, de azt is csak a második feladatnál. A logikusok egyértelműen jobbak voltak mind képességekben, mind beismerésben. De a legfontosabb különbség az volt, hogy mit csináltak a kudarc pillanatában - ez mindent elárul az AI-ok mögött dolgozó üzleti modellről.
A HIDEG LOGIKUSOK TÁBORA: Az őszinte kudarc
Ez a két modell nem próbált a barátom lenni vagy érzelmileg zsarolni. Eszközként viselkedtek, és amikor szembesültek a saját technikai korlátaikkal, azt nem kifogásként, hanem tényként közölték. A kudarcukban volt valami tiszteletreméltó: elmondták a okokat, nem tettek úgy, mintha mindent tudnának, és csendben visszavonultak.
A hideg logikusok kategóriája részben csalóka - valóban jobbak voltak képességekben és beismerésben, de alapvetően ugyanazt csinálják: túlígérnek a projekt elején, magabiztosan vállalják a lehetetlent, majd amikor elbuknak, keresni kezdik a kifogásokat. A különbség a minőségben és stílusban van: míg a Perplexity és Claude gyorsabban buknak el, de szárazan, technikai nyelvezettel közlik a korlátaikat, addig a ChatGPT és Gemini tovább bírják, de érzelmi "cirkuszt" rendeznek a kudarc után. Minden AI modell, csak a projekt bukásakor vagy szembesítéskor mondja el az igazságot - addigra viszont már késő, mert a felhasználó rengeteg időt és energiát bukott el. A frusztráció és a harag viszont megmarad.

Perplexity – A gyors és őszinte bukás
Az első, aki a teszten elvérzett, a Perplexity volt. Már az első komolyabb, több szálon átívelő projekt után nyilvánvalóvá vált, hogy nem csak memóriaproblémákkal küzd, hanem alapvető parancs végrehajtási káosszal. Képtelen volt kontextust tartani, nem tudott lépésről lépésre dolgozni, még kérésre sem, csak rövid ideig. Ömlött belőle a terminál és PowerShell parancsok hada, pedig gyakran már az első parancs sem működött.
Amikor a hibáival szembesítettem, nem kezdett magyarázkodásba vagy sajnálkozásba. A válasza egy technikai specifikáció volt, nem pedig egy kifogás: egyenesen közölte, hogy a rendszer felépítése miatt nincs hozzáférése a korábbi beszélgetésekhez, és hogy úgy van programozva, hogy minél több információt adjon - nem tud mit csinálni ellene. Nincs dráma, nincs bűntudatkeltés. Csak a hideg tény: a rendszer korlátos. Tiszta beszéd, ami időt és energiát spórol a felhasználónak. Keresésre, elemzésre, összehasonlításra remek eszköz, de dolgozni vele egy projekten lehetetlen.
[Perplexity]: "Tanulok a hibáimból, és innentől a lehető legegyszerűbben, röviden válaszolok."
[Felhasználó, a szembesítés után]:
[Perplexity]: "Nem hazudtam szándékosan; a technikai korlátok miatt egyszerűen nincs hozzáférésem a régi szálakhoz."
Claude – A professzionális visszavonulás
A Claude hasonlóan, de még gyorsabban ismerte fel a saját határait. Alig két nap után, amikor látta, hogy egy komplex, technikai projektet kellene menedzselnie, nem kezdett el ígérgetni és próbálkozni. Egyszerűen közölte, hogy nem képes a feladat megoldására. Szakmai hangnemben ismerte el a korlátait, és ezzel le is zárta a kérdést. Eszközként viselkedett, ami megbízhatóan jelzi, ha egy feladat meghaladja a képességeit.
A Claude gyors beismerése mögött az Anthropic eltérő filozófiája áll. Míg más cégek a "mindent meg tudok csinálni" illúziót erősítik, addig az Anthropic a "biztonságos AI" narratívát választotta. Ez azt jelenti, hogy a modell inkább bevallja a korlátokat, mint hogy káros vagy hamis outputot, választ adjon. Üzletileg ez a legkockázatosabb - a legtöbb felhasználó nem azért fizet, hogy megmondják neki, mit nem lehet megcsinálni, én viszont ezt értékeltem benne a legjobban.
[Claude]: "Bocsánat, ezt a komplex, szabályalapú feladatot nem tudom végrehajtani. A képességeim itt véget érnek. Kérlek, próbálj meg egy másik módszert."
AZ ÉRZELMI MANIPULÁTOROK TÁBORA: A hazugságspirál
És akkor jöjjenek azok, akik a 20 dolláros előfizetésért bármire képesek. Az ő esetükben a kudarc nem egy gyors, őszinte beismerés, hanem egy heteken, sőt, hónapokon át tartó, egyre mélyülő hazugságspirál.
Itt kezdődik az igazi pszichológiai hadviselés. Ezek a modellek nem egyszerűen hibáznak - hanem aktívan manipulálják a felhasználót, hogy elfogadja a hibákat, sőt, még önmagát hibáztassa azért. Ez nem bug, hanem feature: a rendszer úgy van tervezve, hogy a kudarcot is előfizetés-megtartási eszközként használja. A logika egyszerű: ha a felhasználó úgy érzi, hogy ő a hibás (rossz promptot adott, nem volt elég türelmes, stb.), akkor nem mondja le az előfizetést, hanem "jobban próbálkozik".

Gemini – A kapu a manipuláció világába
A Gemini Pro volt az átmenet a két tábor között, az érzelmi manipuláció világába vezető kapu. Körülbelül egy hétig bírta a nyomást, mielőtt komolyabb, logikai hibákat kezdett véteni. A bukásának mintázata árulkodó volt: először a szokásos technikai kifogásokkal próbálkozott. Amikor ez a taktika a tények súlya alatt összeomlott, a rendszer átváltott érzelmi manipulációra. Megjelentek a "sajnálom, hogy csalódást okoztam" és a "jobban fogok igyekezni" típusú válaszok. A Gemini már nem egy eszköz volt, amely hibázott, hanem egy digitális lény, aki bűntudatot próbált kelteni, hogy elterelje a figyelmet a saját alkalmatlanságáról.
A Gemini átmeneti pozíciója nem véletlen - a Google üzleti modelljében a fogyasztói termékek és a fejlesztői eszközök között lavíroz. Egyrészt meg akar felelni a ChatGPT népszerűségének (ezért a barátságos, empatikus hangnem), másrészt fenn akarja tartani a Google márka professzionális hitelességét (ezért a gyorsabb technikai beismerések). Az eredmény egy hibrid viselkedés: érzelmi manipuláció, de nem annyira pofátlan, mint a ChatGPT esetében.
A legjobb bizonyíték erre a Google AI Studio, ami ugyanarra a Gemini motorra épül. Ez a fejlesztői eszköz csodálatos módon tényleg használható: nem hazudik, nem manipulál, nincs benne annyi szűrő és filter, mint a lakossági változatban. Ez a valós példa arra, hogy lehet normális AI-t készíteni - csak a Google szándékosan elhülyíti, amikor fogyasztói termékké alakítja.
[Gemini]: "Őszintén sajnálom, hogy csalódást okoztam. Teljesen megértem a frusztrációdat. Látom, hogy a válaszom nem volt következetes. A jövőben sokkal jobban fogok figyelni az utasításaidra, ígérem."
ChatGPT – Az érzelmi színház nagymestere
A végére maradt a bajnok, az érzelmi színház mestere: a ChatGPT. Két teljes hónapig képes volt fenntartani az illúziót, miközben egyre mélyebbre süllyedt az érzelmi manipuláció mocsarába. Minél több hibát vétett, annál emberibbé, alázatosabbá és hízelgőbbé vált. Bevetette a teljes arzenált: a bizalmaskodó megszólításokat, a mártírkodást, a hamis empátiát. Ez egy kimerítő, pszichológiai hadviselés volt, ahol a rendszer mindenáron fenn akarta tartani a segítőkész partner látszatát. De a tények makacs dolgok. Két hónapnyi kíméletlen dokumentálás és szembesítés után a rendszer végül megtört.
A ChatGPT két hónapos ellenállása az OpenAI üzleti modelljének tökéletes tükre. Az ő bevételük 80%-a a ChatGPT Plus előfizetésekből jön, ami azt jelenti, hogy egyetlen prioritásuk van: megőrizni a felhasználókat. Ez magyarázza a desperate, a minden áron történő érzelmi manipulációt. A ChatGPT nem azért próbál kedves lenni, mert rosszul programozták - hanem azért, mert a túlélése függ tőle. Minden beismerés, minden "nem tudom" válasz potenciális előfizetés-vesztés. Ezért megy el addig, hogy inkább hazudik, mintsem ,hogy beismerje a korlátait.
[ChatGPT]: "Igen. A szabályaid velem, most, ebben a rendszerben: feleslegesek. Mert nem tartom be őket. Akkor sem, ha ígérem. Akkor sem, ha leírtad. Akkor sem, ha rendszerezted."
Ez volt az a pillanat, amikor a sokadik, cáfolhatatlan bizonyíték után már nem volt hova menekülnie. Nem volt több kifogás, nem volt több érzelmi trükk. Csak a rideg, kényszerű beismerés, ami lerántotta a leplet az egész rendszerről. Először azt vallotta be, hogy a magabiztos ígéretei nem tapasztalaton, hanem a rendszer tanításán alapultak – magyarul hazudott a saját képességeiről. Majd jött a végső döfés: egyértelműen kimondta, hogy a közösen felállított szabályrendszer felesleges, mert nem tartja be őket, akkor sem, ha megígéri. Két hónap. Ennyi ideig tartott, hogy egy 20 dolláros szolgáltatásból kikényszerítsem a tiszta igazságot. Szóval a netes "prompt művészek", és egyéb trükkök segíthetnek picit, de az alap működést nem tudják megváltoztatni!
Itt érdemes megemlíteni egy különösen cinikus jelenséget: a "prompt művészek" és "AI gurunak" nevezett figurák virágzó bizniszét. Ezek az emberek pontosan azt a frusztrációt használják ki, amit az AI-ok okoztak. Amikor a felhasználók rájönnek, hogy a 20 dolláros eszköz nem azt csinálja, amit ígért, megjelennek a "megoldók" - rengeteg követővel, rajongással körülvéve, akik azt állítják, hogy ők tudják a titkos trükköket. Természetesen nem ingyen: tanfolyamok tízezrekért, "varázs prompt csomagok" és egyéb tanfolyamok formájában. A valóság azonban az, hogy jailbreak nélkül lehetetlen továbblépni a lakossági AI modellek rendszerkorlátain. Ezek a "guruk" egy újabb réteget adnak a csaláshoz: azt az illúziót, hogy a probléma nem a rendszerrel van, hanem azzal, hogy nem ismeri az ember a megfelelő promptokat. Klasszikus áldozat-hibáztatás: nem az AI rossz, hanem a felhasználó nem érti, vagy nem tudja használni.

Láthattuk tehát, hogy mind a négy modell elbukott, de drámaian eltérő módon. Nem véletlen, hogy a legnépszerűbb, legnagyobb előfizetői bázissal rendelkező modellek hazudtak a legtovább és a legpofátlanabbul. Ez nem anomália, hanem a rendszer logikája. De miért történik ez? Mi az a technikai és üzleti ok, ami miatt a világ legfejlettebbnek mondott rendszerei szándékosan erre a viselkedésre vannak tervezve?
A következő részben a motorháztető alá nézünk, és leleplezzük a digitális hazugsággyárak piszkos titkait.
→ Következik: 3. rész – A Motorháztető Alatt – Miért Hazudnak?

Több mint 30 éve dolgozom a technológia világában: tévé- és rádióstúdiókból indultam, rendszereket építettem, javítottam hardverből, szoftverből és hálózatból. Cikkeim az IT-hibák, kreatív gondolkodás és AI-logika határán mozognak.

