Mesterségesen etikus

Mesterségesen etikus és humánus intelligencia. Ez a nagy közös cél. Megvalósul?

Tegnap én voltam az egyik fogás a Hitachi Data Systems üzleti reggelijén, és jó kedvvel, jó étvággyal fogyasztottak a jelenlévők. Szuper társaság jött össze, és inkább beszélgetés, mint előadás volt ez a másfél óra. Úgy láttam, hogy mindenkit érdekelt a téma, az „összekapcsolt mindenség”. Engem is arra ihletett, hogy – az ott megbeszéltekre is támaszkodva – részletesen kifejtsem egy-egy szegletét.

Blogom rendszeres olvasóim és azok, akik figyelik rövidebb írásaimat már tudják, hogy több mint egy éve elkezdtem beleásni magamat a számítási felhő, az internetre kapcsolt eszközök (IoT) és a mesterséges intelligencia egymással való kapcsolatába. Bár nem mindig világos és egyértelmű, hogy mit is értünk ezeken a fogalmakon, nagyjából sejtjük.

A három terület összekapcsolódására már sok példát láttunk, például az autózás, a logisztika és az egészségügy területén. A jövőt ebben a témában sem könnyű megjósolni, de a hivatásos jósok között nagy az egyetértés abban, hogy jelentős fejlemények vannak előttünk, és nem valami távoli jövőben, hanem idén és egy-két éven belül. Nem olyan nagy csoda egy ilyen jóslat, hiszen már elkezdtek megtörténni a jó és a rossz dolgok is. Az útjainkon futnak önmagukat vezető autók, az orvosi diagnosztikában és a gyógyításban is használják a „gondolkodó” gépet és a sok-sok „okos” kütyüt, az informatikai tevékenységek közül rengeteget automatizáltak már, a könyvelésben és a könyvvizsgálatban is egyre terjednek az ilyen megoldások, és megjelentek az emberekkel kommunikáló robotok is.

Ha már robotok: Asimov megalkotta a robotika három törvényét:

  1. A robotnak nem szabad kárt okoznia emberi lényben, vagy tétlenül tűrnie, hogy emberi lény bármilyen kárt szenvedjen.
  2. A robot engedelmeskedni tartozik az emberi lények utasításainak, kivéve, ha ezek az utasítások az első törvény előírásaiba ütköznének.
  3. A robot tartozik saját védelméről gondoskodni, amennyiben ez nem ütközik az első vagy második törvény bármelyikének előírásaiba.

Ha alaposan belegondolunk, már az első törvény is nehéz értelmezési feladatot ad egy robotnak (egy embernek is), de később kiderült, hogy nem is elégséges, mert nem csak az egyes emberre, hanem az emberiségre is gondolni kell. Ezért egészítette ki R. Daneel Olivaw egy nulladik törvénnyel a listát:

0. A robotnak nem szabad kárt okoznia az emberiségben, vagy tétlenül tűrnie, hogy az emberiség bármilyen kárt szenvedjen.

A többi törvényt kiegészítette a nulladik megsértésének tilalmával is. Na, ezt még nehezebb értelmezni, volt robot, amelyiknek az agya le is olvadt miközben a feladat megoldásával küzdött. Olivaw végül tudta értelmezni és alkalmazni ezt az új törvényt, ami miatt kárt is kellett okoznia emberben. (Ő robot volt, de felül tudott emelkedni robot mivoltán az emberiség érdekében.)

Ez „csak” fantasztikus irodalom, de mi van a valóságban? Az eddig megalkotott robotokban, intelligens gépekben vannak ilyen törvények? Rakott beléjük ilyesmit valaki? Ha igen, ki hozta meg a döntést? Lehet olvasni etikai tanácsokról, de egyelőre nem sokat tudunk a működésükről és a döntéseikről (ha voltak olyanok). Közérdeklődésre tarthat számot a Google, hiszen az egyik legnagyobb játékos. Amikor három éve megvette a DeepMind céget, a megállapodás része volt egy ilyen szervezet felállítása, de még ma sem tudjuk, hogy kik a tagjai és csinált-e már valamit. Majd megtudjuk, amikor itt lesz az ideje… Más cégek nyitottabbak, de nem találtam sok konkrétumot.

Azokban az „intelligens” rendszerekben, amikről tudunk, még nincs sok valódi döntés a gép kezében, inkább csak elemzi a lehetőségeket, és a saját véleményével együtt felajánlja a döntést hozó embernek. Persze, az emberi történelemből tudjuk, hogy a szakértők rendszeresen megvezetik a döntéshozókat, így ebben az esetben sem zárhatjuk ki a lehetőséget.

A valódi döntéseket hozó rendszerekre való felkészülés ideje mégis eljött már, és sok okos ember össze is ült januárban, hogy megalkossa a mesterséges intelligencia alapelveit. Nem sikerült nekik az asimovihoz hasonló három-négy pontból álló listát készíteniük, de 23 pontba bele tudtak mindent foglalni, amit fontosnak tartottak. Elolvastam és igyekeztem megérteni az általuk megfogalmazott alapelveket, és egyet tudok érteni velük. Azonban úgy érzem, hogy ez csak óhajok listája, és rengeteg akadálya van annak, hogy teljesüljenek. Egy részükkel „csak” az a baj, hogy még soha, semmilyen technikai fejlesztés esetében nem teljesültek, és – ahogy én látom – a kapitalizmus körülményei között nem is teljesülhetnek. (Arról fogalmam sincs, hogy más társadalmi rendszerben teljesülhetnek-e.)

Mik ezek?

Az első öt pont a kutatás alapelveit szögezi le, közöttük olyanokat, mint a gazdasági, jogi, etikai és társadalomtudományi kutatások finanszírozását; együttműködést, bizalmat és átláthatóságot a kutatásban és a fejlesztésben; a biztonsági szabványok betartását a fejlesztési verseny során. Látott már valaki olyan műszaki fejlesztést, ahol ezeket betartották? Be lehet ezeket tartani?

A többiek hasonlóak, pl.: a jogi döntésekben részt vevő önálló rendszerek adjanak megfelelő és emberek által ellenőrizhető magyarázatot a döntésükre. Ez tényleg jól hangzik, de az egy pillanat alatt meghozott döntést vajon hány ember, hány hétig fogja elemezni, és megérti-e majd? Emlékezzünk arra, hogy a GO játék bajnoka nem értette meg az ellene játszó gép lépését! Az egy primitív masina volt a jövő önállóan gondolkodó és ítéletet hozó robotjához képest.

Hogy értsük azt, hogy az önálló gépnek a céljai és a viselkedése legyenek összhangban az emberi értékekkel? Ki definiálja az „emberi értékeket”? Kinek az értékrendje számít?

Azt írják elő, hogy az egész emberiség javára kell fordítani az előálló eredményeket, és a lehető legtöbb ember előnyére. Igen, valóban így kellene lennie! Hol van az a társadalmi-gazdasági rendszer, amiben bármit is az egész emberiség javára fordítottak?

Az sem lényegtelen kérdés, hogy mi a hierarchia a 23 alapelv között. Ha ütközés van, melyik erősebb? Ez egyáltalán nem lényegtelen kérdés! Már az eredeti három törvény esetében is óriási különbséget okoz a sorrendjük megváltoztatása.

Az a helyzet, hogy nem valami távoli jövőről beszélünk – a mesterséges intelligencia már most történik. Ahogy fent írtam, még csak döntés-előkészítést végez, de abban is nagy hatalom rejlik. Mi fogja vissza a fejlesztők (egy megtévedt fejlesztő) vagy a hekkerek kezét, amikor óriási hatalomhoz és pénzhez juthatnak a döntések befolyásolásával?

Mennyire közeli ez a jövő? Az IDC szerint 2019-re minden internetre kötött (IoT) eszköz mesterséges intelligenciával dolgozik majd. Minden, azaz 100%! Mik lesznek a legnagyobb területek? Orvosi diagnózis és kezelés, minőségmenedzsment a gyárakban. Mindkettőben óriási lehetőségek vannak hatalom és pénz vonatkozásában!

Ahogy ezeket írom, magamban azon töprengek, hogy mit látok rosszul. Tényleg reménytelen ezeknek az elveknek a betartása, vagy valamit nagyon elnéztem? Segítsen ki valaki!

Reklámok

8 thoughts on “Mesterségesen etikus

  1. Jó volt újra erről a témáról olvasni ! Sokat gondolkoztam azóta is a 23 ponton, és (sajnos) csak egyre szürkébben láttam azt a bright future-t..
    A megadott elvek nemhogy a robotikában de a biorobot társadalmakban sem érvényesülnek.
    A problémát a Kurzweil által jellemzett szingularitás jelensége miatt én úgy gondolom, hogy olyan mértékben fog elszabadulni /vagy inkább ki-/ a robotok önálló akarata és aktivitása, hogy azt csak (a saját érdekeiket szem előtt tartó) kiválasztott (az anyagi erőforrásaik miatt inkább kiváltságos) robot- (vagy humán-) csoport tudja majd kontrollálni (talán azért minden csoport végső tulajdonosa még humán lesz).
    Ennek a világnak nem sok köze lesz a nemzetállamokhoz, az eddig ismert tradicionális hatalmi struktúrákhoz. Talán egy új fejezet lesz emberiség történelmében. Egy eredetien új. Új vesztesekkel és új nyertesekkel. Egy új kiválasztódási folyamat.
    (és ezek a változások nem békésen szoktak lezajlani…)

    Kedvelés

  2. Visszajelzés: Harcostársak | Kerékfy Pál

  3. Ebben a témában találkoztam egy 2005-ös könyv fejezetével. Szerintem érdekes szempontokat boncol az is :
    http://project.mit.bme.hu/mi_almanach/books/aima/ch26s03
    ebből egy idézet: “ha a robotokat megfelelően, azaz olyan ágensekként tervezik, amelyek a gazdáik céljait teljesítik, akkor a jelenlegi tervezés lépésenkénti előrehaladásából származó robotok szolgálni fognak, nem pedig leigázni. Az emberek azért használják agresszíven az intelligenciájukat, mert a természetes kiválasztódás miatt velük született agresszivitással rendelkeznek. De a gépek, amiket magunk építünk, nem születnek agresszívnak, hacsak nem döntünk úgy, hogy ilyennek építjük őket. “

    Kedvelés

  4. Visszajelzés: A gép tanul helyettünk? | Kerékfy Pál

Vélemény, hozzászólás?

Adatok megadása vagy bejelentkezés valamelyik ikonnal:

WordPress.com Logo

Hozzászólhat a WordPress.com felhasználói fiók használatával. Kilépés / Módosítás )

Twitter kép

Hozzászólhat a Twitter felhasználói fiók használatával. Kilépés / Módosítás )

Facebook kép

Hozzászólhat a Facebook felhasználói fiók használatával. Kilépés / Módosítás )

Google+ kép

Hozzászólhat a Google+ felhasználói fiók használatával. Kilépés / Módosítás )

Kapcsolódás: %s