A gép tanul helyettünk?

Mit tesz velünk, a munkánkkal és az életünkkel a mesterséges intelligencia?

Pontosabban, nem maga a mesterséges intelligencia teszi majd, hanem az, ahogy felhasználjuk. Ez is egy általános célú technológia, ami vélhetőleg hasonló nagyságrendű változásokat hoz majd az életünkben, mint korábban az általános célú technológiák (gőzgép, elektromosság, belső égésű motor). Általában mesterséges intelligenciáról beszélünk, és ez a terület annyira szerteágazó, hogy nem is mindig tiszta és világos, hogy részére gondolunk.

Vannak kísérletek a mesterséges intelligencia kereteinek és határainak megalkotására. Az egyik érdekes próbálkozás az „Asimolar AI Principles” nevet viseli. Ez egy 23 alapelvből álló lista, amit januárban állított össze sok okos ember egy konferencián, és azóta több ezren csatlakoztak hozzájuk. Én úgy látom, hogy ezek inkább óhajok, mintsem várhatóan betartható szabályok. Emlékezzünk arra, hogy Asimov végtelenül egyszerű három törvényét sem sikerült a robotoknak betartaniuk! Egy korábbi írásomban egy kicsit részletesebben belementem ebbe a témába: Mesterségesen etikus.

Egy pozitív megközelítés szerint a mesterséges intelligencia valójában felszabadítja az embert a „robot”, az unalmas, gépies munka alól. Az ilyet átveszi a gép, és az embernek megmarad az alkotó tevékenység. Úgy érzem, hogy ez az optimizmus nem teljesen indokolt, mert már látszik az is, hogy a gépek nagyon bonyolult döntések meghozatalát is kezdik átvenni az emberektől. Valójában még mindig az ember hozza a döntést, azonban a gép tesz javaslatot a döntésre. Az a gép, amelyik egy pillanat alatt elemzett annyi információt, amennyit az ember csak napok vagy hetek alatt nézhetett volna át. Ha az ember utána akarna nézni annak, hogy a gép jól következtetett-e, akkor elveszítené a gyors döntés előnyét. A gyors döntésen emberi életek vagy üzleti eredmények múlhatnak! Ezért valószínűleg általában el fogja fogadni a gép javaslatát. A géppel együtt dolgozó emberek tudása szép lassan elkopik majd, így egyre kevésbé fognak tudni beleszólni a döntésbe, vagyis teljesen alárendelik magukat a gép programjának.

Az itt az érdekes, hogy nem is a gép programjáról van szó. A programot ember írja, és elvileg ismeri a működését. (Azért csak „elvileg”, mert a valóságban ezek a bonyolult programok tele lehetnek hibákkal – akárcsak a sokkal egyszerűbbek.) Azonban itt nem programról van szó, mert a lényeg a gépi tanulás (machine learning, ML).

A gépi tanulás azért fontos, mert a bonyolult kérdésekben hozott döntési folyamatainkat nem tudjuk algoritmusba önteni. Van ott intuíció, asszociáció, vagy valami más, amit nem tudunk precízen elmagyarázni. Így számítógépes program formájában sem tudjuk leírni, vagyis nem tudjuk a szokásos módon automatizálni. Itt lép be a gépi tanulás. Miben más a gépi tanulás, mint ahogy az ember tanul? Tulajdonképpen nagyon hasonlít ahhoz, ahogy a kisgyerek tanul – példákból, mások tapasztalatából.

A vezető nélküli autózás egyik fejlesztője, a magyar AImotive cég megtanítja a szoftverét az utcán előforduló „objektumok” (autók, gyalogosok, motorkerékpárok, biciklik, tereptárgyak) felismerésére és megkülönböztetésére. Ezt nem úgy teszi, hogy szabályokat táplál a gépbe, hanem videók tömkelegét mutatja be a gépnek, és ezeken a videókon emberek kategorizálják az objektumokat. Az Udacity nevű cég egyik vezetője a kereskedők és a vevők online beszélgetéseit elemezte, és „sikeres” – „sikertelen” címkékkel látta el a beszélgetéseket. Ebből kiderült, hogy mik a jó és mik a rossz válaszok egy-egy szituációban. A WorkFusion háttérfolyamatok optimalizálását végzi (számlák kezelését és nagy összegű pénzügyi tranzakciókat). Itt sem elég a szabályokat „beleönteni” a gépbe. Sokkal hatékonyabb az, ha a gép megfigyeli az emberek munkáját, és „felfedezi” az összefüggéseket, megtanulja, hogy mik voltak a jó és a rossz döntések. Szóval, más példájából tanul, akárcsak a gyerek.

Egyes esetekben az a kiűzött cél, hogy a gép teljesen átvegye az emberi tevékenységet, és azt jobban és gyorsabban csinálja. Ez a cél a vezető nélküli autók esetében, amikben végül nem is lesz se kormány, se pedál. Az előbb említett kereskedelmi rendszerben nem volt cél az ember „kiküszöbölése”. A gép csak figyeli a kereskedő és a vevő beszélgetését, és tanácsokat ad. Ezzel 58%-os javulást értek el a kereskedők munkájában. Hasonló folyamat zajlik a daganatos betegségek diagnózisában is: a képfelismerő rendszer megszabadítja az onkológus szakorvost a sejtek osztályozásától, a gép tudja megkülönböztetni a beteg és az egészséges sejteket egymástól. Az orvos a beteggel való kommunikációra és a magasabb szintű elemzésre több időt tud fordítani. Értékesebb munkát tud végezni.

Amikor a gép korábbi példákból tanul, ezekből építi fel a tudását, majd a tudása alapján dönt, az emberi asszociációra valamelyest hasonló módon „gondolkodik”. Az a helyzet áll elő, hogy a gép nem tudja egyszerűen elmagyarázni, megindokolni a döntését, ha az ember kolléga megkérdezi, hogy miért ezt vagy azt a döntést javasolta. Ez azt is jelenti, hogy az ember (aki a végső döntést meghozza, és a felelősséget viseli) nem igazán tudja ellenőrizni a javaslatot.

A tanulás során felhasznált adatokban lehetnek elfogult döntések eredményei. Ebben az esetben a gép is hasonlóan elfogult lesz. Ezt a lehetőséget nagyon jól (és szélsőségesen) illusztrálta a Microsoft Tay nevű twittelő robotjának az esete.

A nagyon bonyolult elemzések eredményét az ember nem fogja tudni megérteni, ellenőrizni, jóváhagyni. Tulajdonképpen ez sem jövő idő már. Az AlphaGo gép, ami megverte a legjobb Go játékost, olyanokat lépett, amit az emberi ellenfele fel se tudott fogni, nem értette a lépések lényegét és célját. Ha a szakterület legjobb elméje sem érti a gépet, akkor egy átlagosan jó szakember, hogyan fogja megérteni és elfogadni vagy elutasítani a gép döntési javaslatát?

A tanulás módszeréből adódik, hogy a gép statisztikai alapon dönt. Ez sokszor jó megoldás, ha rengeteg esetben kell döntést hozni, és a cél az összességében jó döntés, de egy-egy tévedés belefér. Ezt nyilván nem akarjuk vállalni, amikor emberéletekről van szó. De mégis vállaljuk, ha orvosi diagnosztikában és terápiában hoznak döntéseket a gépek. Itt végtelenül nem egyszerű a helyzet, hiszen a gyorsabb, és az esetek nagy részében jó döntést kell a sokkal-sokkal lassabb döntéssel összevetni. A lassabb döntés is emberéletekbe kerülhet!

A hibás döntéseket nehéz lesz felismerni, ha nem látjuk át, hogy mi vezetett a döntéshez. Ha nekünk napokba kerülne az adatokat elemezni, vajon várunk annyi időt, vagy szabad folyást engedünk a gép javaslatának?

Itt most eszembe jutott a korábban említett 23 alapelv egyike: a jogi döntésekben részt vevő önálló rendszerek adjanak megfelelő és emberek által ellenőrizhető magyarázatot a döntésükre. Ez tényleg jól hangzik, de az egy pillanat alatt meghozott döntést vajon hány ember, hány hétig fogja elemezni, és megérti-e majd?

Azt is mondhatnánk, hogy a cél nem az, hogy minden döntés hibátlan legyen, hanem legalább olyan jó legyen, mint az emberek döntései. Nekünk magunknak is vannak előítéleteink, hibázunk, és nem mindig tudjuk rendesen elmagyarázni a döntéseinket. Ha a gép kicsivel kevesebbet hibázik, akkor már nyertünk! Nyertünk? Lehet, hogy túl sokat tudok az informatikáról…? Az nyugtalanít, hogy nem csak tévedés lehet a rossz döntések mögött, hanem valakinek a szándékossága is. Ez nem olyan különös, embereknél is előfordul a szándékos rosszakarat. A veszélyt abban látom, hogy a számítógépet „istenítjük”, elfogadjuk helyesnek azt, ami a gépből kijön. Nem kellene…

Nos, Kedves Olvasó, szerinted ez az írás pozitív vagy negatív lett? Örömmel vagy aggodalommal várod ezt a szép, új jövőt (ami már jelentős részben jelen)?

Intelligens félelem

Mikor támad majd és hogyan? Észre fogjuk venni? Miből?

blonde android with cat

blonde android with cat

Sokszor kerül terítékre manapság a mesterséges intelligencia, és ez sok különböző formában és kontextusban történik. Én is szóba hoztam, amikor a felhő, az „okos” cuccok és az „intelligens” számítógép összekapcsolódásáról elmélkedtem. Ezen a területen óriásiak a lehetőségek – mind a jó, mind a rossz fejlemények területén. A „Watson segít” című írásomban a jó dolgokat emeltem ki, azt írtam, hogy Watson segítőkész kolléga lesz.  Korábban (pl.: Okos adat) néhány aggályomat is leírtam.

Nagy a vita a világban, hogy jót vagy rosszat hoz-e nekünk az, ha a gépek egyre okosabbak lesznek, és egyre közelebb kerülnek az intelligenciához. Mi is ez a mesterséges intelligencia? Már évtizedek óta beszélnek és írnak róla, sőt fejlesztik is. Többször jelentették már ki, hogy létezik.

Valóban létezik? Ez attól függ, hogy mit tekintünk intelligenciának, hol húzzuk meg a határt a gyors információfeldolgozás és az intelligencia között. Az egyik nagy siker az IBM Deep Blue volt, ami 1997-ben legyőzte Gary Kaszparov sakk világbajnokot (aki, egyébként, csalással vádolta a győztest). Visszavágó nem volt, a Deep Blue nyugdíjba vonult. Mit tudott ez a gép? Korábban lejátszott rengeteg mérkőzést, és azokból megtanult egy csomó állást, és megtanulta azokat értékelni. Másodpercenként 200 millió állást tudott kiértékelni, amivel sokszorosan felülmúlt minden sakkozót. Mondhatjuk azt, hogy intelligens volt? Szerintem ez még nem intelligencia – ez csak ismert információ gyors feldolgozása és összehasonlítása a jelenlegi helyzettel.

Az intelligencia ennél sokkal több – szerintem a tudás, az információ birtoklása mellett annak az elemzése, értelmezése, majd az új helyzetekben való kreatív felhasználása is beletartozik. Nem tudom, hogy vajon az eddig mesterséges intelligenciával rendelkezőnek kikiáltott gépek közül bármelyik is tényleg intelligens-e.

Most volt a Microsoftnak egy érdekes kísérlete a mesterséges intelligencia területén. Tay, a twittelő robot lány (@TayAndYou) némi felkészítés után megjelent a közösségi térben, hogy csevegjen és barátkozzon az ott lézengő emberekkel. A gazdái szerint nyilvános adatok, mesterséges intelligencia és egy szerkesztő csapat készítette fel. Az adatokat anonimizálták, megtisztították és megszűrték. Bármit is jelentsenek ezek a műveletek, a végeredmény ismeretében nem voltak különösen hatékonyak. Amikor „szabadon engedték” nagyon kedvelte az embereket, találkozni akart velük, azt mondta, hogy „humans are super cool”. Ez később fokozódott, már szexre is vágyott és daddy-nek szólította az embereket. Az emberi világba való kirándulása 24 órát se tartott, mert hazahívták pihenni, amikor Hitlert kezdte éltetni. Akkor már ilyeneket írt: „im a nice person! i just hate everybody”. Erre ráerősítő párbeszéd: „Do you support genocide?” – „i do indeed” – „of what race?” – you know me….mexican”. A nagy kezdőbetűkkel és a Microsoft_Tay_tweets-photos-5helyesírással nem törődött, hiszen húsz év körüli amerikai fiatalok közé akart beolvadni. Ahogy fentebb írta, mindenki mást is utált, a négereket, a zsidókat, Belgiumot, a feministákat és név szerint Ted Cruzt is. (Az ábrán éppen a Cruzról szóló kis párbeszéd látható, ami jól mutatja, hogy lehet Tayt rávenni valamire.)

Mi ebből a tanulság? A mesterséges intelligenciára vonatkozóan kb. semmi. Aligha lehet olyan szakértője a területnek, aki így képzelné el a mesterséges intelligencia kialakítását. Az lehet a tanulság, hogy ilyen a Twitter világának az a kis szelete, amelyik komoly érdeklődést mutatott a fiatal robot lány iránt. Egy megjegyzés a témában: „Microsoft took @TayandYou offline because they discovered it already reached human-level intelligence.” (Forrás: @markbao.)

Mit érdemes még megjegyezni ebből a kísérletből? Ha üres (vagy majdnem üres) szivacsot dobunk a szennyvízbe, akkor szennyel szívja tele magát. Legyen ez egy újabb figyelmeztetés, hogy a gyerekeinket alaposan fel kell készíteni mielőtt belekerülnek a Facebook és Twitter világába és utána jól és okosan kell támogatni őket! Ehhez, persze, a felnőtteknek otthonosan kell mozogniuk abban a világban. Különben nem tudnak releváns és alkalmazható tanácsokat adni.

Kedves Olvasó! Abból, hogy itt találkozunk, arra gondolok, hogy van gyakorlatod az online közösségi térben. Van a közeledben tizenéves gyerek? Tudsz vele erről beszélgetni, tudod segíteni, hogy ne tévedjen el?

Ha arra a kérdésre kellene válaszolnom, hogy létezik-e már valóban mesterséges intelligencia, akkor elsőre a Watson jutna eszembe mint lehetséges példa. Arról állítják, hogy a hagyományos gépektől teljesen eltérő módon működik. A kezdetekben Watson is kissé furán viselkedett, de javítottak rajta (kiszedték belőle a szleng szótárat, amivel emberibbé akarták tenni a beszédét, és kapott egy szűrőt is ebben a témában). Sok, folyamatos munkával fejlesztik a képességeit, hogy valóban hasznos segítőnk legyen a fókuszterületeken (orvosi diagnózis, előrejelzés).

A másik lehetséges példa az AlphaGo, az a gép, ami ismételten megverte a legjobb Go játékost. (A Go a sakknál sokkal komplexebb játék, és hosszú ideig esélytelennek tűnt, hogy egy gép kiemelkedő lehetne benne.) Nem azért komoly esélyes, mert nyert a játékban. Az igazán érdekes az, hogy a második győzelme során kb. egy órányi játék után olyat lépett, amitől az ellenfele teljesen kiakadt. (Szó szerint kiakadt, ki kellett mennie megmosni az arcát, és 15 percig nem tudott mit kezdeni a lépéssel, ami elsőre értelmetlennek és hibásnak tűnt.) Ez a cikk mond egy nagyon fontosat, amivel szembe kell néznünk (másképp: ami miatt fogalmunk sincs, hogy mivel nézünk szembe). A gép (bár emberi értelemben nem gondolkodik) számunkra felfoghatatlan számú esetet tud felkészülés gyanánt elemezni, és így olyat tud lépni, amit meg sem értünk, nemhogy fel tudnánk készülni rá. Ez a Go játékban csak megdöbbentő. Amikor majd a tőzsdén történik, akkor horror pénzünkbe kerül, ha a hadszíntéren csinálja, akkor …

Mit kezdünk a gépi intelligenciával, ha fel se tudjuk fogni, hogy mit és miért csinál? Tudjuk majd szabályozni, amikor a való világban is megjelenik (pl. a tőzsdén), ha nem is tudjuk, hogy milyen tevékenységeket kellene korlátozni vagy megtiltani?

Mennyire veszélyes a mesterséges intelligencia? Ha tényleg kifejlődik, benne van a potenciál, hogy nagyon veszélyes legyen. Mennyire? Rosszabb lehet, mint a legrosszabb gonosz robotok a filmekben. Miért? Azért, mert arra is képes lehet, hogy szabályozza, megváltoztassa a gondolatainkat. (Korlátozott mértékben megy ez mesterséges intelligencia nélkül is, de a tömegmédia magában nem képes mindenre. A szuper intelligens gép képes lehet.) Itt van, amit Elon Musk (a Tesla első embere) mond: “Potentially more dangerous than nukes.” (nukes=atombomba) Ő közel van a tűzhöz (éppen a saját autóikat is kezdik okosítani), ő csak tudja. Nem ő az egyetlen okos ember, aki riasztónak tartja. Más okos emberek szerint viszont nem is olyan veszélyes…

Ha ezt mind tudjuk, kell-e félnünk? Szerintem nem félni kell! Félni nem jó, rosszat tesz az egészségnek. Betiltani nem tudjuk, hiszen már itt van, már működik. Meg kell ismerni, meg kell érteni. Ki kell hoznunk belőle a legtöbb jót és hasznosat. Lehetőség szerint vigyáznunk kell, hogy ne kerüljön rossz kezekbe. Ha tényleg veszélyesebb az atomnál…

Ki találkozott már a mesterséges intelligencia valamilyen formájával? Mi a tapasztalata?