A gép tanul helyettünk?

Mit tesz velünk, a munkánkkal és az életünkkel a mesterséges intelligencia?

Pontosabban, nem maga a mesterséges intelligencia teszi majd, hanem az, ahogy felhasználjuk. Ez is egy általános célú technológia, ami vélhetőleg hasonló nagyságrendű változásokat hoz majd az életünkben, mint korábban az általános célú technológiák (gőzgép, elektromosság, belső égésű motor). Általában mesterséges intelligenciáról beszélünk, és ez a terület annyira szerteágazó, hogy nem is mindig tiszta és világos, hogy részére gondolunk.

Vannak kísérletek a mesterséges intelligencia kereteinek és határainak megalkotására. Az egyik érdekes próbálkozás az „Asimolar AI Principles” nevet viseli. Ez egy 23 alapelvből álló lista, amit januárban állított össze sok okos ember egy konferencián, és azóta több ezren csatlakoztak hozzájuk. Én úgy látom, hogy ezek inkább óhajok, mintsem várhatóan betartható szabályok. Emlékezzünk arra, hogy Asimov végtelenül egyszerű három törvényét sem sikerült a robotoknak betartaniuk! Egy korábbi írásomban egy kicsit részletesebben belementem ebbe a témába: Mesterségesen etikus.

Egy pozitív megközelítés szerint a mesterséges intelligencia valójában felszabadítja az embert a „robot”, az unalmas, gépies munka alól. Az ilyet átveszi a gép, és az embernek megmarad az alkotó tevékenység. Úgy érzem, hogy ez az optimizmus nem teljesen indokolt, mert már látszik az is, hogy a gépek nagyon bonyolult döntések meghozatalát is kezdik átvenni az emberektől. Valójában még mindig az ember hozza a döntést, azonban a gép tesz javaslatot a döntésre. Az a gép, amelyik egy pillanat alatt elemzett annyi információt, amennyit az ember csak napok vagy hetek alatt nézhetett volna át. Ha az ember utána akarna nézni annak, hogy a gép jól következtetett-e, akkor elveszítené a gyors döntés előnyét. A gyors döntésen emberi életek vagy üzleti eredmények múlhatnak! Ezért valószínűleg általában el fogja fogadni a gép javaslatát. A géppel együtt dolgozó emberek tudása szép lassan elkopik majd, így egyre kevésbé fognak tudni beleszólni a döntésbe, vagyis teljesen alárendelik magukat a gép programjának.

Az itt az érdekes, hogy nem is a gép programjáról van szó. A programot ember írja, és elvileg ismeri a működését. (Azért csak „elvileg”, mert a valóságban ezek a bonyolult programok tele lehetnek hibákkal – akárcsak a sokkal egyszerűbbek.) Azonban itt nem programról van szó, mert a lényeg a gépi tanulás (machine learning, ML).

A gépi tanulás azért fontos, mert a bonyolult kérdésekben hozott döntési folyamatainkat nem tudjuk algoritmusba önteni. Van ott intuíció, asszociáció, vagy valami más, amit nem tudunk precízen elmagyarázni. Így számítógépes program formájában sem tudjuk leírni, vagyis nem tudjuk a szokásos módon automatizálni. Itt lép be a gépi tanulás. Miben más a gépi tanulás, mint ahogy az ember tanul? Tulajdonképpen nagyon hasonlít ahhoz, ahogy a kisgyerek tanul – példákból, mások tapasztalatából.

A vezető nélküli autózás egyik fejlesztője, a magyar AImotive cég megtanítja a szoftverét az utcán előforduló „objektumok” (autók, gyalogosok, motorkerékpárok, biciklik, tereptárgyak) felismerésére és megkülönböztetésére. Ezt nem úgy teszi, hogy szabályokat táplál a gépbe, hanem videók tömkelegét mutatja be a gépnek, és ezeken a videókon emberek kategorizálják az objektumokat. Az Udacity nevű cég egyik vezetője a kereskedők és a vevők online beszélgetéseit elemezte, és „sikeres” – „sikertelen” címkékkel látta el a beszélgetéseket. Ebből kiderült, hogy mik a jó és mik a rossz válaszok egy-egy szituációban. A WorkFusion háttérfolyamatok optimalizálását végzi (számlák kezelését és nagy összegű pénzügyi tranzakciókat). Itt sem elég a szabályokat „beleönteni” a gépbe. Sokkal hatékonyabb az, ha a gép megfigyeli az emberek munkáját, és „felfedezi” az összefüggéseket, megtanulja, hogy mik voltak a jó és a rossz döntések. Szóval, más példájából tanul, akárcsak a gyerek.

Egyes esetekben az a kiűzött cél, hogy a gép teljesen átvegye az emberi tevékenységet, és azt jobban és gyorsabban csinálja. Ez a cél a vezető nélküli autók esetében, amikben végül nem is lesz se kormány, se pedál. Az előbb említett kereskedelmi rendszerben nem volt cél az ember „kiküszöbölése”. A gép csak figyeli a kereskedő és a vevő beszélgetését, és tanácsokat ad. Ezzel 58%-os javulást értek el a kereskedők munkájában. Hasonló folyamat zajlik a daganatos betegségek diagnózisában is: a képfelismerő rendszer megszabadítja az onkológus szakorvost a sejtek osztályozásától, a gép tudja megkülönböztetni a beteg és az egészséges sejteket egymástól. Az orvos a beteggel való kommunikációra és a magasabb szintű elemzésre több időt tud fordítani. Értékesebb munkát tud végezni.

Amikor a gép korábbi példákból tanul, ezekből építi fel a tudását, majd a tudása alapján dönt, az emberi asszociációra valamelyest hasonló módon „gondolkodik”. Az a helyzet áll elő, hogy a gép nem tudja egyszerűen elmagyarázni, megindokolni a döntését, ha az ember kolléga megkérdezi, hogy miért ezt vagy azt a döntést javasolta. Ez azt is jelenti, hogy az ember (aki a végső döntést meghozza, és a felelősséget viseli) nem igazán tudja ellenőrizni a javaslatot.

A tanulás során felhasznált adatokban lehetnek elfogult döntések eredményei. Ebben az esetben a gép is hasonlóan elfogult lesz. Ezt a lehetőséget nagyon jól (és szélsőségesen) illusztrálta a Microsoft Tay nevű twittelő robotjának az esete.

A nagyon bonyolult elemzések eredményét az ember nem fogja tudni megérteni, ellenőrizni, jóváhagyni. Tulajdonképpen ez sem jövő idő már. Az AlphaGo gép, ami megverte a legjobb Go játékost, olyanokat lépett, amit az emberi ellenfele fel se tudott fogni, nem értette a lépések lényegét és célját. Ha a szakterület legjobb elméje sem érti a gépet, akkor egy átlagosan jó szakember, hogyan fogja megérteni és elfogadni vagy elutasítani a gép döntési javaslatát?

A tanulás módszeréből adódik, hogy a gép statisztikai alapon dönt. Ez sokszor jó megoldás, ha rengeteg esetben kell döntést hozni, és a cél az összességében jó döntés, de egy-egy tévedés belefér. Ezt nyilván nem akarjuk vállalni, amikor emberéletekről van szó. De mégis vállaljuk, ha orvosi diagnosztikában és terápiában hoznak döntéseket a gépek. Itt végtelenül nem egyszerű a helyzet, hiszen a gyorsabb, és az esetek nagy részében jó döntést kell a sokkal-sokkal lassabb döntéssel összevetni. A lassabb döntés is emberéletekbe kerülhet!

A hibás döntéseket nehéz lesz felismerni, ha nem látjuk át, hogy mi vezetett a döntéshez. Ha nekünk napokba kerülne az adatokat elemezni, vajon várunk annyi időt, vagy szabad folyást engedünk a gép javaslatának?

Itt most eszembe jutott a korábban említett 23 alapelv egyike: a jogi döntésekben részt vevő önálló rendszerek adjanak megfelelő és emberek által ellenőrizhető magyarázatot a döntésükre. Ez tényleg jól hangzik, de az egy pillanat alatt meghozott döntést vajon hány ember, hány hétig fogja elemezni, és megérti-e majd?

Azt is mondhatnánk, hogy a cél nem az, hogy minden döntés hibátlan legyen, hanem legalább olyan jó legyen, mint az emberek döntései. Nekünk magunknak is vannak előítéleteink, hibázunk, és nem mindig tudjuk rendesen elmagyarázni a döntéseinket. Ha a gép kicsivel kevesebbet hibázik, akkor már nyertünk! Nyertünk? Lehet, hogy túl sokat tudok az informatikáról…? Az nyugtalanít, hogy nem csak tévedés lehet a rossz döntések mögött, hanem valakinek a szándékossága is. Ez nem olyan különös, embereknél is előfordul a szándékos rosszakarat. A veszélyt abban látom, hogy a számítógépet „istenítjük”, elfogadjuk helyesnek azt, ami a gépből kijön. Nem kellene…

Nos, Kedves Olvasó, szerinted ez az írás pozitív vagy negatív lett? Örömmel vagy aggodalommal várod ezt a szép, új jövőt (ami már jelentős részben jelen)?

A gép tanul helyettünk?” bejegyzéshez egy hozzászólás

Vélemény, hozzászólás?

Adatok megadása vagy bejelentkezés valamelyik ikonnal:

WordPress.com Logo

Hozzászólhat a WordPress.com felhasználói fiók használatával. Kilépés /  Módosítás )

Twitter kép

Hozzászólhat a Twitter felhasználói fiók használatával. Kilépés /  Módosítás )

Facebook kép

Hozzászólhat a Facebook felhasználói fiók használatával. Kilépés /  Módosítás )

Kapcsolódás: %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.