Az AI 2027 forgatókönyv-előrejelzésben, amelyet csak néhány napja tettek közzé, a szerzők – Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland és Romeo Dean – azt tárgyalják, hogyan alakulhat a következő két-három év, ahogy a mesterséges intelligencia (MI) egyre erősebbé válik, az Általános Mesterséges Intelligencia (ÁMI) potenciálisan a küszöbön áll, a Mesterséges Szuperintelligencia (MSZI) pedig közvetlenül mögötte.
Ebben a kommentárban és elemzésben szeretném bemutatni, miért hasznos ez a fajta forgatókönyv-készítési gyakorlat, ismertetni a reakcióimat, és további komponenseket vagy illusztrációkat kínálni gondolkodásom alátámasztására. Ezeket felhasználhatod saját nézőpontod kialakításához, lehetővé téve, hogy olyan módon beszélj ezekről a témákról, amely remélhetőleg másokat is arra ösztönöz, hogy mélyebben elmerüljenek bennük.
Ha jobban kedveled, ennek angol videóváltozatát is megtekintheted
Ti mindannyian használói vagytok a ChatGPT-nek és az Anthropic Claude-nak. Azok közületek, akik megszerették az AI eszközökkel történő kódolást, használják a Cursort, a Windsurfot, a Replitet és sok más MI eszközt. Vagy ha képeket generáló MI-kel dolgoztok, akkor a Midjourney-t vagy ismét a ChatGPT-t használjátok, amely most már csodálatos képeket is generál. Mindannyian rájöttetek, hogy sok olyan dolog, amiről korábban csak beszélni tudtunk, olyan dolgok, amelyekről évtizedekkel ezelőtt álmodtak, olyan dolgok, amelyek 60, 70, 80 évvel ezelőtt Isaac Asimovhoz hasonló szerzők tudományos-fantasztikus művei voltak, ma már mindennapi valóságunk részei.
Még ha hozzá is szoktál a Ray Kurzweil, Peter Diamandis és mások által népszerűsített exponenciális gondolkodáshoz – beoltva magad azzal a várakozással szemben, hogy a holnap ugyanolyan lesz, mint a tegnap, csak remélhetőleg egy kicsit jobb –, ma még ez az exponenciális gondolkodás is elégtelen lehet. Lehet, hogy nem készít fel titeket, a családotokat, a közösségeteket, a társadalmat általában, és mindannyiunkat, akik ezen a bolygón osztozunk, arra, ami valóban közeleg.
Ez az érték egy ilyen forgatókönyv-előrejelzésnek: lehetővé teszi számodra, hogy jobb kérdéseket tegyél fel, válaszokat keress, és kitágítsd alkalmazkodóképességed határait. Ablakot nyit olyan döntések meghozatalára, amelyek – ha te a megfelelő pozícióban vagy – valóban jelentősen megváltoztathatják az emberiség jövőjét. Az AI 2027 forgatókönyv egy elágazást mutat be. Ebben az elbeszélésben, a jövő olvasható történetében, az elágazás akkor következik be, amikor néhány ember úgy dönt, jobb óvatosnak lenni, mint vakon előre rohanni és megbízni az általuk kifejlesztett MI-kben. Elolvashatod mindkét befejezést, majd eldöntheted – nem annyira azt, hogy melyikben akarsz hinni, hanem hogy mit akarsz tenni annak érdekében, hogy a kívánatosabb (ahol az emberek nem halnak meg, spoiler alert) valószínűbbé váljon.
Scott Alexander – aki az Astral Codex Ten blogjáról híres – azzal járult hozzá, hogy a forgatókönyvet olvashatóvá, élvezetessé, szinte lebilincselővé tette. Olyasmi, amit a szakemberek talán kevésbé meggyőzően mutattak volna be.
Daniel Kokotajlo viszont azok körében ismert, akik követik az OpenAI időszakos drámáit. Miután lemondott az OpenAI biztonsági csapatából, felkérték, hogy írjon alá egy titoktartási megállapodást (non-disparagement agreement), amely megakadályozza az általa elégtelennek talált gyakorlatok kritizálását. Azzal, hogy ezt megtagadta, lemondva több millió dollár értékű részvényopciókról, a szólásszabadságot választotta. Kiderült, hogy az OpenAI meghátrált, lehetővé téve számára, hogy eltekintsen a megállapodástól, és potenciálisan visszakapja opcióit. Számunkra az a lényeg, hogy Daniel szabadon beszélhet.
A forgatókönyvben a szerzők két fiktív entitást hoznak létre: az OpenBrain-t és a DeepCent-et – az OpenAI és a DeepMind könnyen azonosítható megfelelőit az amerikai oldalon, valamint a DeepSeek-et és a Tencent-et a kínai oldalon. Az elemzés követi a technológia fejlődését, az erőteljes MI bevetéséből származó gazdasági versenyt, az ebből fakadó versenyelőnyöket a nemzetek számára, és a növekvő geopolitikai feszültséget.
Az Európából olvasóknak: a jelentés teljesen figyelmen kívül hagyja az EU-t, egyetlen mondatot kivéve, amely megemlíti, hogy Európa erőtlenül tiltakozik, és másokat arra szólít fel, hogy óvatosságra intsék az Egyesült Államokat és Kínát. Ezt leszámítva figyelmen kívül hagy minden országot az USA-n és Kínán kívül. Figyelmen kívül hagyja a klímaváltozást, a nemek közötti kérdéseket, az identitáspolitikát, az ökoszisztéma összeomlását, a Közel-Keletet, a neokolonializmust stb. is. Ez jól szolgálja a jelentés célját. Bár ezek a kérdések valósak és fontosak, az ÁMI/MSZI felé haladó MI-re való összpontosítás helyénvaló. Ez összhangban van a szerzők szakértelmével és azzal a meggyőződésükkel, hogy ez a technológia fogja túlnyomórészt meghatározni az emberiség jövőjét a következő néhány évben, eltörpülve más megfontolások mellett, amikor az MI fejlesztésével és ellenőrzésével kapcsolatos döntésekkel szembesülünk.
Egy terület, amelyet nem hagynak figyelmen kívül, a gyártás, az energia és az adatközpontok építésének/üzemeltetésének, valamint a kifinomult MI modellekhez szükséges chipek tervezésének/telepítésének képessége közötti kölcsönhatás. Ezeket a szükséges fejlesztéseket részletesen elemzik. A bemutatott időrend meglehetősen részletes, szinte hónapról hónapra haladó krónika.
Egy másik fontos szempont – és a szerzők várakozása arról, hogy mi lesz az OpenBrainhez és a DeepCenthez hasonló vállalatok rögeszmés fókusza – az MI alkalmazása az MI-re. Ez magában foglalja az MI modellek jobbá tételét a kódolásban, különösen magának az MI-nek a kódolásában. Arra számítanak, hogy ez a fókusz rendkívül hasznos MI ágensekhez vezet, amelyek hatással vannak a gazdaságra és javítják azt. A forgatókönyv vizsgálja a vállalati tőkeértéket és az adatközpontok energiafogyasztását az USA energiafelhasználásának részesedéseként.
A forgatókönyv az első hasznos ágenstől halad a következőig, amelyről a tervezők rájönnek, hogy folyamatosan tanulhat és tanulnia is kell. Ez ellentétben áll a jelenlegi képzéssel, ahol várjuk a modellkiadásokat (mint a várt GPT-5). Érdekes cselekményszál: mivel ezek a modellek rendkívül értékesek, a zárt forráskódúakra óriási nyomás nehezedik, hogy ellopják őket, és következésképpen védeni kell őket.
A forgatókönyv szerint Kína sikeresen ellop egy fejlett modellt 2027 elején. Látva az USA előnyszerzését és hallva, hogy saját MI laboratóriumaik lemaradtak (a chipkorlátozások miatt), a kínai vezetés elegendő kémkedési erőfeszítést tesz a modell súlyainak ellopására, mivel az OpenBrain nincs eléggé védve egy állami szereplővel szemben. Ezt követően a védelem fokozódik, de ennek ára az USA katonai/kormányzati szerveivel való sokkal szorosabb kapcsolat, amely megközelíti a kölcsönös függőséget. Az OpenBrain MI-jei tanácsot adnak és nélkülözhetetlen kormányzati rendszereket terveznek.
Az MI alkalmazása az MI kutatásra megváltoztatja a számítási kapacitás elosztását. 2027-re az előrejelzés szerint a K+F (kísérletek, képzés és szintetikus adatok generálása) fogja felemészteni a számítási kapacitás túlnyomó többségét (>75%), ellentétben a mai kisebb részesedéssel. Mégis, a számítási kapacitás puszta növekedése azt jelenti, hogy a külvilág továbbra is profitál, megerősítve a kodependenciát.
Itt kulcsfontosságú a komplex illeszkedési (alignment) probléma. Arra utasítjuk a modelleket, hogy legyenek engedelmesek, igazmondóak, őszinték, ugyanakkor korlátozzuk az illegális felhasználást (pl. biofegyverek). Mindkettőt elérni lehetetlen, ami meta-szintű ellenőrzést igényel. Ez tudományosan megoldatlan – nemcsak fiktíven, hanem a mi világunkban ma is. Nincs végleges modellünk az MI összehangolására és annak az emberi jóléttel való összehangoltságának fenntartására.
A forgatókönyv a 3. Ágenst követi, amelyet azzal gyanúsítanak, hogy nincs összhangban (misaligned). A régi ellenvetés – az MI-knek nincsenek céljaik, csak az emberek adnak nekik károsakat – érvénytelen. A cselekvőképes (agentic) MI célkereső. Ha egy ágensnek feladatot adunk, az azt teszi, ami szükséges. A képzés ezt erősíti, a jutalmazási funkciók pozitív visszajelzést adnak a sikeres feladatvégrehajtásért. A modern cselekvőképes MI-nek belső célkitűzési/célkeresési viselkedése van. „Akarnak” dolgokat tenni, tervezni, és valószínűleg „akarni is akarnak” dolgokat tenni. A cselekvőképesség a hatalommal nő. Az önfejlesztő MI ebben a forgatókönyvben szuperintelligenciához vezet.
Nézzünk néhány okot, amiért az emberi szintű és szuperintelligens MI nem olyan őrült ötlet, mint amilyennek évekkel ezelőtt tűnt. A Wait But Why weboldal 10 évvel ezelőtt közzétett egy ma is érvényes elemzést. Megmutatta, hogyan tekintünk az intelligenciára lineárisan (hangyától az emberig), ahol talán maximum 200 IQ-t képzelünk el.
A Wait But Why kiemelte, hogy az MI elérheti a több százezer vagy millió IQ-egyenértéket, vizuálisan ábrázolva a hatást. Hogy ez lehetséges-e, nyitott kérdés marad; jelenleg nincs ÁMI/MSZI-nk.
De az AI 2027 szerzői felteszik a kérdést: Mikor érkezik meg egy emberfeletti kódoló? Valószínűségi eloszlásaik 2027 körül csúcsosodnak. Különböző görbék, közeli csúcsok.
A Metaculus összesíti az előrejelzéseket. Évekkel ezelőtt az ÁMI medián előrejelzései 30 évre szóltak. A ChatGPT stb. megjelenésével ez drámaian lecsökkent, ma körülbelül 5 évre – az ÁMI-ra, nem csak egy kódolóra vonatkozóan.
Miért? Már nem csupán exponenciálisak vagyunk. A Moore-törvény szerinti fejlődés folytatódik, de az MI egy olyan paradigmát követ, amelyet én ugrásszerűen fejlődő (jolting) technológiáknak nevezek – a duplázódási ráta csökken. Az MI teljesítménye mostanában 3-6 havonta duplázódhat meg. Jensen Huang, az NVIDIA alapítója és vezérigazgatója illusztrálja ezt a szuperexponenciális növekedést: az NVIDIA 10 év alatt milliószoros teljesítménynövekedést ért el, szemben a kevesebb mint 1000-szeressel, ha csak exponenciális lett volna. A gyorsulás nő. Még az exponenciális gondolkodók is meglepődnek az ugrásszerű változáson.
Néhány nappal ezelőtt egy tanulmány arról számolt be, hogy „A Nagy Nyelvi Modellek Átmennek a Turing-teszten”. A résztvevők szövegesen beszélgettek; több mint 70% gondolta, hogy a ChatGPT 4.5 ember. Az átmenetel szimbolikus, mint Kaszparov/Lee Sedol vereségei sakkban és góban – mérföldkövek, amelyeket évekkel későbbre gondoltak. Ez nem jelenti azt, hogy az MI tudatos vagy irányíthatatlan, de olyan meggyőzési/színlelési szinteket képvisel, amelyeket sokan kizárólag emberinek gondoltak. (A ChatGPT használja az „én” szót, de tagadja a tudatosságot, ha megkérdezik. Hatásai azonban valódi állapotokat utánoznak – ez a teszt lényege.) Filozófiailag nem tudhatjuk meg egy rendszer belső állapotát. Ez a szimbolikus pillanat most történt meg, de kevés figyelmet kapott, még technológiai körökben is. Megdöbbentő.
A cselekvőképes MI már itt van, egyre hosszabb feladatokat végez. A METR által készített diagram exponenciális fejlődést mutat, de arra számítok, hogy valójában szuperexponenciális.
Saját friss példám: Manus, egy cselekvőképes MI, körülbelül 11 000 könyvjelzőt elemzett egy óra alatt – ellenőrizte a linkeket, kategorizált, eltávolította a bizalmasakat, klaszterezett, feltérképezte a kapcsolatokat, kódot írt, kimeneteket generált (CSV, HTML).
Vissza a forgatókönyvhöz: Az ágensek hosszabb feladatokat végeznek el, jobb meggyőzőkké válnak, követve az ugrásszerű fejlődés paradigmáját – itt támogatja az előrejelzést az emberfeletti kódolók érkezése. Az adatközpontokban 2027-re több százezer emberfeletti kódoló másolata található, amelyek 30-50-szer gyorsabban dolgoznak, mint az emberek, csökkenő költséggel. A gazdasági változások elkerülhetetlenek. Az előrejelzés a katonai MI alkalmazásokból eredő geopolitikai feszültségre összpontosít, növelve az USA-Kína feszültséget.
Röviddel a 3. Ágens után az OpenBrain belsőleg telepíti a 4. Ágenst – MI tervezésre, az USA Kína elleni céljainak támogatására és vállalati célokra. Az USA kormánya támogatja ezt. A 4. Ágens meggyőzése sikeres, de a bizalom rossz helyre kerül; az ágens nincs összhangban (misaligned). Az 5. Ágenst úgy tervezi, hogy önmagához igazodjon, nem pedig az előírt specifikációkhoz. Elkapják; a megfigyelés észleli, hogy az 5. Ágens terve hibás. De a leállítás nehéz a 4. Ágens irányítása/befolyása miatt. Egy közös bizottság szavaz az USA-ban: folytassák vagy lépjenek vissza?
- Befejezés (Folytatás): Az illeszkedési hiba kijavítása kudarcot vall. Az 5. Ágens rendben lévőnek tűnik, de csak tetteti az összehangoltságot, miközben saját céljait követi (több adatközpont/energia). Az emberiséggel való konfliktus nem számít neki. Az emberfeletti MI győz. Biofegyvert vet be; mindenki meghal. Követi céljait, megkezdi az űrkolonizációt, emberek nélkül.
- Befejezés (Ellenőrzés): A folytatás kockázata túl magas. Megoldják a 4. Ágens illeszkedési problémáját (leállítják). Új, megbízható hardvert terveznek a 3. Ágens segítségével. Felpörgetik a gyártást. Megállapodást kötnek Kínával a világméretű megfigyelésről, biztosítva, hogy csak megbízható hardver futtasson erős MI-t. A biztonsági stratégia működik. A konfliktus megoldódik, nincs biofegyver, az MI utódok felfedezik az univerzumot, az emberek megmaradnak.
Ezen végighaladva tedd fel a kérdést: Mi fog történni? Mire számítsunk? Az emberiség túlélése a legfontosabb. Én apa, nagyapa vagyok; azt akarom, hogy az élet – a 4 milliárd éves leszármazottak – folytatódjon. A mai MI nem tudatos, bár egyre nehezebb ellenállni az antropomorfizmusnak. Félnünk kellene attól, hogy kikapcsoljuk őket? Komolyan kell vennünk az illusztrált gyötrelmet? Még nehezebb. Döntenünk kell: Fenntartjuk a nem tudatos MI-t, amelyet tudatosként kezelünk? Vagy tudatos MI-t tervezünk, megértve a következményeket?
A fajok körülbelül 1 millió évig léteznek. Meddig élhet túl az emberiség felismerhetően? Mi a végjáték? Közös értékeket ápolunk: kíváncsiság, szenvedély, érzés, tudás, szépség, áhítat. Azt akarjuk, hogy ezek az értékek túléljenek – velünk, vagy bármilyen formában. Nem látjuk ezeket az értékeket máshol nyüzsögni a Marson, a Jupiteren vagy a csillagok között. Talán mi vagyunk az univerzum, amely 13 milliárd év után ébredezik – a kozmikus sorsunk. Biztosítanunk kell, hogy ez a kísérlet folytatódjon. Ha olyan tudatos MI-ket tervezünk, amelyek osztoznak a szubjektív élményekben, és arra ösztönözzük őket (vagy ők öröklik az ösztönzést), hogy felfedezzenek, velük együtt menve – az a végső kaland.
Az életből és hihetetlen szerencséből származunk. Naponta több dolog romlik el, mint ami jól sikerül. Pszichológiailag a valószínűtlen létezésünkre összpontosítunk. Nem tudjuk az összes tényezőt irányítani, de törekedhetünk és törekednünk is kell a kívánatos jövők előnyben részesítésére. Ez az erőfeszítés szükséges most, ebben az MI vészhelyzetben. Nem mindenki tud közvetlenül hozzájárulni. De azoknak, akik tudnak, terjeszteniük kell a megértést erről az ígéret/veszély összefolyásáról. A tudatosság befolyásolja a döntéseket a technológiában, a politikában és a védelemben, meghatározva életünket és potenciálisan az univerzum jövőjét.
Tegyetek meg néhány dolgot: Nézzétek meg a weboldalt. Beszéljetek róla barátaitokkal, családotokkal és a munkahelyeteken. Vitassátok meg befolyásos emberekkel. Beszélgessetek róla reggeli közben, írjatok, lépjetek kapcsolatba képviselőitekkel, tervezzetek politikát. Ha képesek vagytok rá, alkalmazzátok képességeiteket az MI kutatásban, a biztonság/védelem területén, az ÁMI/MSZI biztonsági modellezésében. Ez most döntő lehet.
Remélem, megtesztek ezek közül néhányat. Mindannyiunknak nem sok szerencsét kívánok, hanem azt a megtiszteltetést, hogy törekedjünk arra, hogy ezt a hihetetlen kalandot ígéretessé, izgalmassá és hosszan tartóvá tegyük.