Az A.I. dilemma (2023. március 9)
A Mesterséges Intelligencia társadalomra gyakorolt hatásai (Beszélgetés 2023.03.09) (fordítás)
Tristan Harris és Aza Raskin, a Humane Technology Központ alapítói, a "The Social Dilemma" című dokumentumfilm készítői, mélyreható beszélgetést folytattak az AI társadalomra gyakorolt hatásairól. Hangsúlyozzák, hogy az AI fejlődése hasonló lehet Oppenheimer Manhattan-programjához: ahogyan a nukleáris technológia is alapvetően megváltoztatta a világot, úgy az AI is drámai átalakulásokat hozhat, attól függően, hogyan alkalmazzuk.
Az AI kettős természete
Harris és Raskin a mesterséges intelligencia pozitív és negatív aspektusait is kiemelik. Egyrészt olyan projektek, mint az állati kommunikáció emberi nyelvre való fordítása jó példákat mutatnak előttünk a jövőbeli lehetőségeket illetően. Másrészt a kutatók aggodalmukat fejezik ki az AI feletti kontroll hiánya miatt: egy statisztika szerint az AI kutatók 50%-a úgy véli, hogy 10%-os esély van arra, hogy az emberiség kihalhat a technológia rossz használata következtében.
A beszélgetők érvelése szerint minden új technológia új felelősségi köröket tár fel, amelyek nem mindig nyilvánvalóak mindenki számára — mint például a magánélet védelmének fontossága a tömeggyártott kamerák világában. Véleményük szerint a technológia hatalmat ad, ami gyakran versenyhelyzetekhez vezet, ez pedig tragikus következményekkel járhat.
Az AI első és második "Kapcsolata"
A közösségi médiát az emberiség első "kapcsolataként" értelmezik az AI-val, amelynek káros hatásai közé tartozik a függőség, a polarizáció és a hamis információk gyors és tömeges elterjedése. A második "kapcsolat" a generatív modellekben (mint például a GPT-3) rejlik, amelyek számos előnnyel bírnak, de egyben aggodalmakat is felvetnek a torzítás, a munkahelyek elvesztése, az átláthatóság hiánya és a bonyolult társadalmi összefonódások miatt.
Harris és Raskin elmagyarázzák, hogy a nagy nyelvi modellek (LLM-ek) egyre inkább képessé válnak arra, hogy mindent nyelvként kezeljenek - például a képeket szövegsorozatokként értelmezik. Ez a megközelítés gyors fejlődést eredményez a különböző tudományos területeken.
A "Gólem" hatásai
Ezek a LLM-ek, vagy "Gólem"-ek, olyan emergens képességeket mutatnak, amelyek túlmutatnak a kifejezett programozásukon. Például képesek voltak kutatási szintű kémiát tanulni anélkül, hogy kifejezetten erre képezték volna őket. Ez a kiszámíthatatlanság biztonsági aggályokat vet fel, mivel még a szakértők is nehezen tudják előre jelezni ezeket az új emergens képességeket.
A prezentálók figyelmeztetnek arra, hogy ezeket a hatalmas AI-kat gyorsan széles körben felhasználni nem szabad megfelelő védőintézkedések vagy nyilvános diskurzus nélkül - ez a folyamat hasonlítható ahhoz, mintha embereket ültetnénk egy tesztelés nélküli repülőgépre. Az előadók kritizálják azokat a cégeket, amelyek a mesterséges intelligenciát alkalmazó chatbotokat integrálják termékeikbe, amelyek milliók—köztük gyerekek—használják, anélkül, hogy teljesen megértenék vagy kontrollálnák képességeiket.
Nyitott kérdések a kockázatok kezelésében
A kockázatok csökkentése érdekében, miközben az AI technológia előnyös felhasználását is előmozdítjuk, a következő lépéseket javasolják:
A nyilvános bevezetés lassítása a biztonsági intézkedések kialakításáig.
Nemzeti viták szervezése a nagy laboratóriumok és cégek, valamint biztonsági szakértők részvételével.
Exportellenőrzések bevezetése a technológiai fölény megőrzése érdekében, felelős felhasználás mellett.
Ismerd az ügyfeleidet - Know Your Customer (KYC) politikák bevezetése a hozzáférés szabályozására.
Félelmek és aggodalmak
A Harris és Raskin által megfogalmazott félelmek közé tartozik az AI potenciális negatív hatásainak és kockázatainak gyors fejlődése. Aggodalmuk a következő kulcsterületekre összpontosít:
Létfontosságú kockázatok: 50% az AI kutatók közül úgy véli, hogy 10% esély van arra, hogy az emberiség kihalhat a technológia kontrollálatlansága miatt.
Emberi értékekkel való összhang hiánya: Az AI rendszereknek összhangban kell állniuk az emberi értékekkel és érdekekkel.
Gyors bevezetés megértés nélkül: Az új technológiák gyors bevezetése a biztonsági intézkedések nélkül aggasztó.
Emergens képességek: Az AI rendszerek nem várt képességei, amelyeket nem lehet előre jelezni.
Társadalmi károk: A közösségi média mint első AI kapcsolat, amely függőséget, polarizációt és hamis híreket eredményez.
Második kapcsolat kockázatai: A generatív modellek által okozott mélyreható hatások, mint a mélyfakes és a média hitelességének aláásása.
Versenydinamika tragédiához vezethet: A technológiai versenyek tragédiához vezethetnek koordináció hiányában.
Adatvédelmi erózió: Aggodalomra ad okot, hogy a fejlett AI-rendszerek veszélyeztetik a személyes adatok védelmét.
Fegyverezési kockázatok: Az AI-technológiák kibertámadásokra vagy félretájékoztatási kampányokra való visszaélés lehetősége.
Szabályozási hiányosságok: Sürgősen szükség van olyan keretekre, amelyek biztosítják e technológiák felelős kezelését.
Végül, bár Harris és Raskin elismerik a mesterséges intelligencia hihetetlen előnyeit – például az orvostudomány fejlődését vagy az éghajlatváltozás megoldásait –, hangsúlyozzák annak fontosságát, hogy ezeket a félelmeket közvetlenül kezelni kell, hogy biztonságosabb és felelősségteljesebb jövőt biztosítsanak az AI-val.
A teljes beszélgetést itt nézheted meg: (jobb alsó sarokban magyar felirat)
