Ferenc pápa üzenete az 57. békevilágnapra (2.)

A múlt számunkban Ferenc pápa a 2024-es békevilágnapra megjelentetett üzenete első részének alapvető gondolatait összegesztük, mai számunkban az üzenet néhány további kijelentését ajánljuk olvasóinknak megfontolásra.

Fontos a technika határainak az érzékelése

„Világunk túl nagy, változatos és összetett ahhoz, hogy teljes mértékben megértsük és rendszerezzük. Az emberi elme soha nem lesz képes kimeríteni a gazdagságát, még a legfejlettebb algoritmusok segítségével sem. […]

Továbbá azt is be kell látnunk, hogy a mesterséges intelligencia által elemzett adatok nagy mennyisége önmagában még nem garantálja a pártatlanságot. Amikor az algoritmusok az információkból következtetéseket vonnak le, mindig fennáll a veszélye, hogy torzítanak, és így reprodukálják annak a környezetnek az igazságtalanságait és előítéleteit, amelyből az információk származnak. Minél gyorsabbá és bonyolultabbá válnak, annál nehezebb megérteni, hogy miért is adtak egy bizonyos eredményt.

Az »intelligens« gépek végezhetik ugyan egyre nagyobb hatékonysággal a rájuk bízott feladatokat, működésük célját és értelmét továbbra is az emberek fogják meghatározni vagy jóváhagyni, akiknek megvan a saját értékrendszerük. Fennáll a veszély, hogy az egyes döntéseket meghatározó kritériumok homályosabbá válnak, hogy a döntésekért való felelősségvállalás eltompul, és a fejlesztők kibújnak a közjó érdekében való cselekvés kötelezettsége alól.”

A pápa figyelmeztet, hogy a mai technokrata és hatékonyságorientált mentalitás igen gyakran elhanyagol olyan szempontokat is, amelyek kulcsfontosságúak a személyes és társadalmi fejlődés szempontjából: nem érzékeli, hol vannak a határok… „Ahhoz, hogy az ember elérje, sőt, ajándékként fogadja el a teljességet, elengedhetetlen a saját teremtményi korlátainak felismerése és elfogadása.”

Égető erkölcsi kérdések

„A jövőben mesterségesintelligencia-rendszerek határozhatják meg például egy hiteligénylő megbízhatóságát, egy álláskereső alkalmasságát valamely pozícióra, egy elítélt bűnismétlésének valószínűségét vagy a politikai menedékjogra vagy a szociális segélyre való jogosultságot. Ezek a rendszerek a közvetítés különböző szintjeinek hiányától – ami a sajátosságuk – különösen hajlamossá válnak az előítéletekre és a diszkrimináció formáira: a rendszerszintű hibák könnyen megsokszorozódhatnak, így nemcsak egyes egyedi esetek igazságtalan megoldásához vezethetnek, hanem a dominóhatás révén a társadalmi egyenlőtlenség valódi formáihoz is.

Időnként úgy tűnik továbbá, hogy a mesterséges intelligencia formái képesek befolyásolni az egyének választásait előre meghatározott, ösztönző és visszatartó tényezőkhöz kapcsolódó lehetőségek vagy az információk elemzésén alapuló, személyes döntéseket irányító rendszerek révén. A manipuláció vagy a társadalmi ellenőrzés ezen formái gondos odafigyelést és ellenőrzést igényelnek, és egyértelmű jogi felelősséget rónak a gyártókra, a felhasználókra és a kormányzati szervekre. […]

Az emberi méltóság alapvető tiszteletben tartása megköveteli, hogy ne engedjük egy személy egyediségét egy adathalmazzal azonosítani. Nem szabad, hogy az algoritmusok határozzák meg az emberi jogok értelmezését, hogy háttérbe szorítsák az együttérzés, az irgalom és a megbocsátás alapvető értékeit vagy, hogy kizárják annak lehetőségét, hogy valaki megváltozik, és maga mögött hagyja a múltját.”

Ekevassá kovácsoljuk-e a kardokat?

„A mai világot szemlélve nem kerülhetőek meg a hadiiparral kapcsolatos súlyos etikai kérdések sem. Az úgynevezett »halálos autonóm fegyverrendszerek« új technológiáinak kutatása – beleértve a mesterséges intelligencia háborús alkalmazását is – komoly etikai aggályokat vet fel. Az autonóm fegyverrendszerek soha nem lesznek képesek erkölcsileg felelős alanyokká válni: az erkölcsi ítélőképesség és az etikus döntéshozatal egyedülálló emberi képessége több, mint algoritmusok bonyolult halmaza, és nem redukálható egy gép programjára, amely bármennyire is »intelligens«, mindig gép marad. Elengedhetetlen ezért a fegyverrendszerek megfelelő, hiteles és koherens emberi felügyeletének biztosítása.

Enélkül „nemcsak az emberi intelligenciát, hanem az emberi szívet is fenyegeti a veszély, hogy egyre inkább »mesterségessé« válik”.

Az oktatás és a nemzetközi jog fejlődése előtt álló kihívások

A pápa emlékeztet arra is, hogy az emberi méltóságot tiszteletben tartó és szolgáló technológia fejlesztése nyilvánvaló hatással van az oktatási intézményekre és a kultúra világára. „A digitális technológiák a kommunikációs lehetőségek megsokszorozásával a találkozás új formáit alakították ki. […]

A mesterséges intelligencia formáinak alkalmazására vonatkozó oktatásnak elsősorban a kritikus gondolkodás kialakítására kell irányulnia. Minden korosztály, de különösen a fiatalok számára szükséges, hogy képesek legyenek a megkülönböztetésre a világhálón talált vagy mesterségesintelligencia-rendszerek által előállított adatok és tartalmak használata során. […]

Az új kommunikációs eszközök használatára irányuló képzésnek nemcsak a félretájékoztatást, az álhíreket kell figyelembe vennie, hanem az »ősfélelmek aggasztó növekedését is, […] amelyek képesek voltak felerősödni és elrejtőzni az új technológiák mögött«. Sajnos újra csak szembetaláljuk magunkat annak kísértésével, hogy a »falak kultúráját építjük, falakat emelünk, hogy megakadályozzuk a találkozást más kultúrákkal, más népekkel« és a békés és testvéri együttélés kialakítását.”

Ferenc pápa sürgeti „a nemzetközi közösség együttműködését egy olyan kötelező erejű nemzetközi szerződés megkötése érdekében, amely szabályozza a mesterséges intelligencia fejlesztését és használatát a maga változatos formáiban”. Továbbá rámutat, hogy „a mesterséges intelligencia formáinak előállítására vonatkozó etikai iránymutatások kidolgozásakor nem hagyhatók figyelmen kívül az emberi lét értelmére, az alapvető emberi jogok védelmére, valamint az igazságosságot és a békét célzó törekvésre vonatkozó mélyebb kérdések”.

HARMATH Károly