Az A.I. dilemma (2023. március 9)

A Mesterséges Intelligencia társadalomra gyakorolt hatásai  (Beszélgetés 2023.03.09) (fordítás)

Tristan Harris és Aza Raskin, a Humane Technology Központ alapítói, a "The Social Dilemma" című dokumentumfilm készítői, mélyreható beszélgetést folytattak az AI társadalomra gyakorolt hatásairól. Hangsúlyozzák, hogy az AI fejlődése hasonló lehet Oppenheimer Manhattan-programjához: ahogyan a nukleáris technológia is alapvetően megváltoztatta a világot, úgy az AI is drámai átalakulásokat hozhat, attól függően, hogyan alkalmazzuk.

Az AI kettős természete

Harris és Raskin a mesterséges intelligencia pozitív és negatív aspektusait is kiemelik. Egyrészt olyan projektek, mint az állati kommunikáció emberi nyelvre való fordítása jó példákat mutatnak előttünk a jövőbeli lehetőségeket illetően. Másrészt a kutatók aggodalmukat fejezik ki az AI feletti kontroll hiánya miatt: egy statisztika szerint az AI kutatók 50%-a úgy véli, hogy 10%-os esély van arra, hogy az emberiség kihalhat a technológia rossz használata következtében.

A beszélgetők érvelése szerint minden új technológia új felelősségi köröket tár fel, amelyek nem mindig nyilvánvalóak mindenki számára — mint például a magánélet védelmének fontossága a tömeggyártott kamerák világában. Véleményük szerint a technológia hatalmat ad, ami gyakran versenyhelyzetekhez vezet, ez pedig tragikus következményekkel járhat.

Az AI első és második "Kapcsolata"

A közösségi médiát az emberiség első "kapcsolataként" értelmezik az AI-val, amelynek káros hatásai közé tartozik a függőség, a polarizáció és a hamis információk gyors és tömeges elterjedése. A második "kapcsolat" a generatív modellekben (mint például a GPT-3) rejlik, amelyek számos előnnyel bírnak, de egyben aggodalmakat is felvetnek a torzítás, a munkahelyek elvesztése, az átláthatóság hiánya és a bonyolult társadalmi összefonódások miatt.

Harris és Raskin elmagyarázzák, hogy a nagy nyelvi modellek (LLM-ek) egyre inkább képessé válnak arra, hogy mindent nyelvként kezeljenek - például a képeket szövegsorozatokként értelmezik. Ez a megközelítés gyors fejlődést eredményez a különböző tudományos területeken.

A "Gólem" hatásai

Ezek a LLM-ek, vagy "Gólem"-ek, olyan emergens képességeket mutatnak, amelyek túlmutatnak a kifejezett programozásukon. Például képesek voltak kutatási szintű kémiát tanulni anélkül, hogy kifejezetten erre képezték volna őket. Ez a kiszámíthatatlanság biztonsági aggályokat vet fel, mivel még a szakértők is nehezen tudják előre jelezni ezeket az új emergens képességeket.

A prezentálók figyelmeztetnek arra, hogy ezeket a hatalmas AI-kat gyorsan széles körben felhasználni nem szabad megfelelő védőintézkedések vagy nyilvános diskurzus nélkül - ez a folyamat hasonlítható ahhoz, mintha embereket ültetnénk egy tesztelés nélküli repülőgépre. Az előadók kritizálják azokat a cégeket, amelyek a mesterséges intelligenciát alkalmazó chatbotokat integrálják termékeikbe, amelyek milliók—köztük gyerekek—használják, anélkül, hogy teljesen megértenék vagy kontrollálnák képességeiket.

Nyitott kérdések a kockázatok kezelésében  

A kockázatok csökkentése érdekében, miközben az AI technológia előnyös felhasználását is előmozdítjuk, a következő lépéseket javasolják:

  1. A nyilvános bevezetés lassítása a biztonsági intézkedések kialakításáig.

  2. Nemzeti viták szervezése a nagy laboratóriumok és cégek, valamint biztonsági szakértők részvételével.

  3. Exportellenőrzések bevezetése a technológiai fölény megőrzése érdekében, felelős felhasználás mellett.

  4. Ismerd az ügyfeleidet - Know Your Customer (KYC) politikák bevezetése a hozzáférés szabályozására.

Félelmek és aggodalmak

A Harris és Raskin által megfogalmazott félelmek közé tartozik az AI potenciális negatív hatásainak és kockázatainak gyors fejlődése. Aggodalmuk a következő kulcsterületekre összpontosít:

  1. Létfontosságú kockázatok: 50% az AI kutatók közül úgy véli, hogy 10% esély van arra, hogy az emberiség kihalhat a technológia kontrollálatlansága miatt.

  2. Emberi értékekkel való összhang hiánya: Az AI rendszereknek összhangban kell állniuk az emberi értékekkel és érdekekkel.

  3. Gyors bevezetés megértés nélkül: Az új technológiák gyors bevezetése a biztonsági intézkedések nélkül aggasztó.

  4. Emergens képességek: Az AI rendszerek nem várt képességei, amelyeket nem lehet előre jelezni.

  5. Társadalmi károk: A közösségi média mint első AI kapcsolat, amely függőséget, polarizációt és hamis híreket eredményez.

  6. Második kapcsolat kockázatai: A generatív modellek által okozott mélyreható hatások, mint a mélyfakes és a média hitelességének aláásása.

  7. Versenydinamika tragédiához vezethet: A technológiai versenyek tragédiához vezethetnek koordináció hiányában.

  8. Adatvédelmi erózió: Aggodalomra ad okot, hogy a fejlett AI-rendszerek veszélyeztetik a személyes adatok védelmét.

  9. Fegyverezési kockázatok: Az AI-technológiák kibertámadásokra vagy félretájékoztatási kampányokra való visszaélés lehetősége.

  10. Szabályozási hiányosságok: Sürgősen szükség van olyan keretekre, amelyek biztosítják e technológiák felelős kezelését.

    Végül, bár Harris és Raskin elismerik a mesterséges intelligencia hihetetlen előnyeit – például az orvostudomány fejlődését vagy az éghajlatváltozás megoldásait –, hangsúlyozzák annak fontosságát, hogy ezeket a félelmeket közvetlenül kezelni kell, hogy biztonságosabb és felelősségteljesebb jövőt biztosítsanak az AI-val.

 A teljes beszélgetést itt nézheted meg: (jobb alsó sarokban magyar felirat)