Root NationUutisetIT-uutisiaGooglen entinen johtaja vertasi tekoälyä ydinaseisiin

Googlen entinen johtaja vertasi tekoälyä ydinaseisiin

-

Googlen entinen toimitusjohtaja Eric Schmidt vertasi tekoälyä ydinaseisiin ja vaati molemminpuolisen varman tuhon kaltaista pelotejärjestelmää, joka estää maailman tehokkaimpia valtioita tuhoamasta toisiaan.

Googlen entinen johtaja vertasi tekoälyä ydinaseisiin

Schmidt puhui tekoälyn vaaroista Aspen Security Forumissa 22. heinäkuuta keskustellessani kansallisesta turvallisuudesta ja tekoälystä. Kysyttäessä moraalin arvosta teknologiassa, Schmidt selitti, että hän itse oli naiivi tiedon voiman suhteen Googlen alkuaikoina. Sitten hän vaati teknologiaa vastaamaan paremmin heidän palvelemiensa ihmisten etiikkaa ja moraalia, ja teki oudon vertailun tekoälyn ja ydinaseiden välille.

Schmidt puhui lähitulevaisuudesta, jossa Kiinan ja Yhdysvaltojen on tehtävä sopimus tekoälystä. "50- ja 60-luvuilla päädyimme luomaan maailman, jossa ydinkokeille oli "ei yllätyksiä" -sääntö, ja sen seurauksena ne kiellettiin", Schmidt sanoi. "Tämä on esimerkki luottamuksen tasapainosta tai luottamuksen puutteesta, tämä on sääntö "ei yllätyksiä". Olen hyvin huolissani siitä, että Yhdysvaltojen näkemys Kiinasta korruptoituneena tai kommunistisena tai mitä tahansa, ja Kiinan näkemys Amerikasta häviäjänä... sallii ihmisten sanoa: "Voi luoja, he ovat tekemässä jotain" ja sitten alkaa jotain käsittämätöntä...

Tekoäly ja koneoppiminen ovat kiehtovaa ja usein väärinymmärrettyä tekniikkaa. Hän ei periaatteessa ole niin älykäs kuin ihmiset luulevat. Se voi luoda mestariteostason taideteoksia, päihittää ihmisiä Starcraft II:ssa ja soittaa alkeellisia puheluita käyttäjille. Yritykset saada se suorittamaan vaikeampia tehtäviä, kuten autolla ajamista suuressa kaupungissa, eivät kuitenkaan ole onnistuneet.

Schmidt puhuu kuvitteellisesta lähitulevaisuudesta, jossa sekä Kiina että Yhdysvallat ovat huolissaan turvallisuuskysymyksistä, mikä pakottaa ne solmimaan eräänlaisen tekoälyn hillitsemissopimuksen. Hän muisteli 1950- ja 60-luvut, jolloin diplomatia kehitti joukon hallintajärjestelmiä planeetan tappavimpien aseiden ympärille. Mutta kesti vuosikymmenen ydinräjähdyksiä ja mikä tärkeintä Hiroshiman ja Nagasakin tuhoaminen, ennen kuin rauha tuli ennen ydinkoekieltosopimuksen, SALT II:n ja muun maamerkkilainsäädännön tekemistä.

Kaksi Amerikan toisen maailmansodan lopussa tuhoamaa japanilaista kaupunkia vaati kymmenientuhansien ihmisten hengen ja todisti maailmalle ydinaseiden ikuisen kauhun. Sitten Venäjän ja Kiinan hallitukset ryntäsivät hankkimaan aseita. Tapa, jolla elämme sen mahdollisuuden kanssa, että näitä aseita tullaan käyttämään, on ns. Mutually Assured Destruction (MAD), peloteteoria, joka varmistaa, että jos yksi maa laukaisee ydinaseen, on mahdollista, että mikä tahansa muu maa tekee sen. Emme käytä planeetan tuhoisimpia aseita, koska on mahdollista, että se tuhoaa ainakin sivilisaation ympäri maailmaa.

Schmidtin värikkäistä kommenteista huolimatta emme halua emmekä tarvitse MAD:ia tekoälylle. Ensinnäkin tekoäly ei ole vielä osoittanut tuhovoimaansa ydinaseisiin verrattuna. Mutta vallassa olevat ihmiset pelkäävät tätä uutta teknologiaa, ja yleensä vääristä syistä. Ihmiset ovat jopa ehdottaneet ydinaseiden hallinnan luovuttamista tekoälylle uskoen, että se olisi parempi välimies sen käytössä kuin ihminen.

Googlen entinen johtaja vertasi tekoälyä ydinaseisiin

Tekoälyn ongelma ei ole se, että sillä on mahdollisesti ydinaseen tuhoisa voima. Asia on siinä, että tekoäly on vain niin hyvä kuin sen kehittäjät ja että se kantaa luojiensa arvoja. Tekoäly kärsii klassisesta "roskat sisään, roskat ulos" -ongelmasta: rasistiset algoritmit luovat rasistisia robotteja, ja kaikki tekoäly kantaa sen tekijöiden ennakkoluuloja.

Demis Hassabis, DeepMindin, Starcraft II -pelaajia päihittävän tekoälyn kouluttaneen yrityksen, toimitusjohtaja, näyttää ymmärtävän tämän paremmin kuin Schmidt. Heinäkuussa Lex Friedmanin podcastissa annetussa haastattelussa Friedman kysyi Hassabilta, kuinka niin tehokasta teknologiaa kuin tekoäly voidaan hallita ja kuinka Hassabis itse voi välttää tämän voiman korruptoitumisen.

Khasabiksen vastaus koskee häntä itseään. "Tekoäly on liian suuri idea", hän sanoi. "On tärkeää, kuka tekee tekoälyä, mistä kulttuureista he tulevat ja mitkä ovat heidän arvonsa. Tekoälyjärjestelmät oppivat itsestään... mutta järjestelmään jää jäljet ​​järjestelmän tekijöiden kulttuuriin ja arvoihin."

Tekoäly on tekijänsä heijastus. Se ei voi tuhota kaupunkia maan tasalle 1,2 megatonin räjähdyksellä. Ellei joku opeta hänelle tätä.

Voit auttaa Ukrainaa taistelemaan venäläisiä hyökkääjiä vastaan. Paras tapa tehdä tämä on lahjoittaa varoja Ukrainan asevoimille Pelasta elämä tai virallisen sivun kautta NBU.

Lue myös:

Dzherelopahe
Kirjaudu
Ilmoita asiasta
vieras

0 Kommentit
Upotetut arvostelut
Näytä kaikki kommentit
Muut artikkelit
Tilaa päivityksiä
Suosittu nyt