Mesterségesen etikus

Mesterségesen etikus és humánus intelligencia. Ez a nagy közös cél. Megvalósul?

Tegnap én voltam az egyik fogás a Hitachi Data Systems üzleti reggelijén, és jó kedvvel, jó étvággyal fogyasztottak a jelenlévők. Szuper társaság jött össze, és inkább beszélgetés, mint előadás volt ez a másfél óra. Úgy láttam, hogy mindenkit érdekelt a téma, az „összekapcsolt mindenség”. Engem is arra ihletett, hogy – az ott megbeszéltekre is támaszkodva – részletesen kifejtsem egy-egy szegletét.

Blogom rendszeres olvasóim és azok, akik figyelik rövidebb írásaimat már tudják, hogy több mint egy éve elkezdtem beleásni magamat a számítási felhő, az internetre kapcsolt eszközök (IoT) és a mesterséges intelligencia egymással való kapcsolatába. Bár nem mindig világos és egyértelmű, hogy mit is értünk ezeken a fogalmakon, nagyjából sejtjük.

A három terület összekapcsolódására már sok példát láttunk, például az autózás, a logisztika és az egészségügy területén. A jövőt ebben a témában sem könnyű megjósolni, de a hivatásos jósok között nagy az egyetértés abban, hogy jelentős fejlemények vannak előttünk, és nem valami távoli jövőben, hanem idén és egy-két éven belül. Nem olyan nagy csoda egy ilyen jóslat, hiszen már elkezdtek megtörténni a jó és a rossz dolgok is. Az útjainkon futnak önmagukat vezető autók, az orvosi diagnosztikában és a gyógyításban is használják a „gondolkodó” gépet és a sok-sok „okos” kütyüt, az informatikai tevékenységek közül rengeteget automatizáltak már, a könyvelésben és a könyvvizsgálatban is egyre terjednek az ilyen megoldások, és megjelentek az emberekkel kommunikáló robotok is.

Ha már robotok: Asimov megalkotta a robotika három törvényét:

  1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.
  2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
  3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba.

Ha alaposan belegondolunk, már az első törvény is nehéz értelmezési feladatot ad egy robotnak (egy embernek is), de később kiderült, hogy nem is elégséges, mert nem csak az egyes emberre, hanem az emberiségre is gondolni kell. Ezért egészítette ki R. Daneel Olivaw egy nulladik törvénnyel a listát:

0. A robotnak nem szabad kárt okoznia az emberiségben, vagy tétlenül tűrnie, hogy az emberiség bármilyen kárt szenvedjen.

A többi törvényt kiegészítette a nulladik megsértésének tilalmával is. Na, ezt még nehezebb értelmezni, volt robot, amelyiknek az agya le is olvadt miközben a feladat megoldásával küzdött. Olivaw végül tudta értelmezni és alkalmazni ezt az új törvényt, ami miatt kárt is kellett okoznia emberben. (Ő robot volt, de felül tudott emelkedni robot mivoltán az emberiség érdekében.)

Ez „csak” fantasztikus irodalom, de mi van a valóságban? Az eddig megalkotott robotokban, intelligens gépekben vannak ilyen törvények? Rakott beléjük ilyesmit valaki? Ha igen, ki hozta meg a döntést? Lehet olvasni etikai tanácsokról, de egyelőre nem sokat tudunk a működésükről és a döntéseikről (ha voltak olyanok). Közérdeklődésre tarthat számot a Google, hiszen az egyik legnagyobb játékos. Amikor három éve megvette a DeepMind céget, a megállapodás része volt egy ilyen szervezet felállítása, de még ma sem tudjuk, hogy kik a tagjai és csinált-e már valamit. Majd megtudjuk, amikor itt lesz az ideje… Más cégek nyitottabbak, de nem találtam sok konkrétumot.

Azokban az „intelligens” rendszerekben, amikről tudunk, még nincs sok valódi döntés a gép kezében, inkább csak elemzi a lehetőségeket, és a saját véleményével együtt felajánlja a döntést hozó embernek. Persze, az emberi történelemből tudjuk, hogy a szakértők rendszeresen megvezetik a döntéshozókat, így ebben az esetben sem zárhatjuk ki a lehetőséget.

A valódi döntéseket hozó rendszerekre való felkészülés ideje mégis eljött már, és sok okos ember össze is ült januárban, hogy megalkossa a mesterséges intelligencia alapelveit. Nem sikerült nekik az asimovihoz hasonló három-négy pontból álló listát készíteniük, de 23 pontba bele tudtak mindent foglalni, amit fontosnak tartottak. Elolvastam és igyekeztem megérteni az általuk megfogalmazott alapelveket, és egyet tudok érteni velük. Azonban úgy érzem, hogy ez csak óhajok listája, és rengeteg akadálya van annak, hogy teljesüljenek. Egy részükkel „csak” az a baj, hogy még soha, semmilyen technikai fejlesztés esetében nem teljesültek, és – ahogy én látom – a kapitalizmus körülményei között nem is teljesülhetnek. (Arról fogalmam sincs, hogy más társadalmi rendszerben teljesülhetnek-e.)

Mik ezek?

Az első öt pont a kutatás alapelveit szögezi le, közöttük olyanokat, mint a gazdasági, jogi, etikai és társadalomtudományi kutatások finanszírozását; együttműködést, bizalmat és átláthatóságot a kutatásban és a fejlesztésben; a biztonsági szabványok betartását a fejlesztési verseny során. Látott már valaki olyan műszaki fejlesztést, ahol ezeket betartották? Be lehet ezeket tartani?

A többiek hasonlóak, pl.: a jogi döntésekben részt vevő önálló rendszerek adjanak megfelelő és emberek által ellenőrizhető magyarázatot a döntésükre. Ez tényleg jól hangzik, de az egy pillanat alatt meghozott döntést vajon hány ember, hány hétig fogja elemezni, és megérti-e majd? Emlékezzünk arra, hogy a GO játék bajnoka nem értette meg az ellene játszó gép lépését! Az egy primitív masina volt a jövő önállóan gondolkodó és ítéletet hozó robotjához képest.

Hogy értsük azt, hogy az önálló gépnek a céljai és a viselkedése legyenek összhangban az emberi értékekkel? Ki definiálja az „emberi értékeket”? Kinek az értékrendje számít?

Azt írják elő, hogy az egész emberiség javára kell fordítani az előálló eredményeket, és a lehető legtöbb ember előnyére. Igen, valóban így kellene lennie! Hol van az a társadalmi-gazdasági rendszer, amiben bármit is az egész emberiség javára fordítottak?

Az sem lényegtelen kérdés, hogy mi a hierarchia a 23 alapelv között. Ha ütközés van, melyik erősebb? Ez egyáltalán nem lényegtelen kérdés! Már az eredeti három törvény esetében is óriási különbséget okoz a sorrendjük megváltoztatása.

Az a helyzet, hogy nem valami távoli jövőről beszélünk – a mesterséges intelligencia már most történik. Ahogy fent írtam, még csak döntés-előkészítést végez, de abban is nagy hatalom rejlik. Mi fogja vissza a fejlesztők (egy megtévedt fejlesztő) vagy a hekkerek kezét, amikor óriási hatalomhoz és pénzhez juthatnak a döntések befolyásolásával?

Mennyire közeli ez a jövő? Az IDC szerint 2019-re minden internetre kötött (IoT) eszköz mesterséges intelligenciával dolgozik majd. Minden, azaz 100%! Mik lesznek a legnagyobb területek? Orvosi diagnózis és kezelés, minőségmenedzsment a gyárakban. Mindkettőben óriási lehetőségek vannak hatalom és pénz vonatkozásában!

Ahogy ezeket írom, magamban azon töprengek, hogy mit látok rosszul. Tényleg reménytelen ezeknek az elveknek a betartása, vagy valamit nagyon elnéztem? Segítsen ki valaki!