Root NationArtikkelitAnalyticsTekoälyn kuusi käskyä

Tekoälyn kuusi käskyä

-

Seuraavia vuosia leimaa tekoälyteknologian nopea kehitys. Ehkä on tarpeen ottaa käyttöön selkeästi määritellyt puitteet tekoälyn luomiselle ja käytölle? Riittääkö kuuden kuukauden kokemus säätelemään tekniikkaa, joka ei ole vielä edes lähtenyt laboratoriosta? Tämä kysymys tulee yhä useammin asiantuntijoiden ja toimittajien suusta tekoälyn suhteen. Ääniä ja kehotuksia tekoälyn säätelytoimiin - sekä käyttäjätasolla että projektikehityksen tasolla - kuullaan yhä useammin. Tällaisten vetoomusten historia alkoi melko kauan sitten.

Tekoälyn arjen läsnäolo digitaalisessa tilassa ja ennen kaikkea mallit, jotka pystyvät luomaan sisältöä, joka ei eroa ihmisten luomasta, herättää hyvin erilaisia ​​tunteita. Toisaalta meillä on joukko harrastajia, jotka näkevät tekoälyssä tulevaisuuden ja huolimatta sen suhteellisen rajallisista kyvyistä (koska tekoäly ei ajattele, vaan usein vain ottaa tietoa Internetistä) eivät pelkää uskoa sille monia tehtäviä. . Barrikadin toisella puolella on ryhmä, joka ilmaisee skeptisyytensä ja huolestuneisuutensa tekoälyn kehityksen nykyisistä trendeistä.

AI-postulaatti

Siltana näiden kahden ryhmän välillä ovat tekoälytutkijat, jotka toisaalta mainitsevat lukuisia esimerkkejä siitä, kuinka tekoäly on vaikuttanut positiivisesti ympäröivään todellisuuteen. Samalla he ymmärtävät, että on liian aikaista levätä laakereillaan ja valtava teknologinen harppaus tuo mukanaan monia haasteita ja suuren vastuun. Selvä esimerkki tästä asenteesta on kansainvälinen tekoälyn ja koneoppimisen tutkijoiden ryhmä, jota johtaa tohtori Ozlem Garibay Keski-Floridan yliopistosta. 47-sivuinen julkaisu, jonka on kirjoittanut 26 tutkijaa eri puolilta maailmaa, tunnistaa ja kuvaa kuusi haastetta, joihin tutkimuslaitosten, yritysten ja yritysten on vastattava saadakseen mallinsa (ja niitä käyttävänsä ohjelmiston) turvallisiksi.

Kyllä, tämä on vakava tieteellinen työ, jossa on tärkeitä selityksiä tekoälyn tulevaisuuden ymmärtämiseksi. Kiinnostunut voi itsenäisesti lue tämä tieteellinen raportti ja tee omat johtopäätöksesi. Yksinkertaisesti sanottuna tiedemiehet ovat tunnistaneet 6 tekoälyn käskyä. Kaiken tekoälykehityksen ja -toimien on oltava niiden mukaisia, jotta se on turvallista ihmisille ja maailmalle.

AI-postulaatti

Artikkelissani, joka on kirjoitettu nimenomaan tämän tieteellisen työn pohjalta, yritän muotoilla tärkeimmät postulaatit, lait, joiden mukaan tekoälyn pitäisi olla olemassa ja kehittyä. Kyllä, tämä on lähes vapaa tulkintani tiedemiesten johtopäätöksistä tekoälyn kehittämisestä ja yritys esittää ne niin sanotusti raamatullisessa versiossa. Mutta tällä tavalla halusin esitellä teille tämän arvostettujen tiedemiesten tieteellisen työn.

Mielenkiintoista myös: Tekoälyn rakentaminen: Kuka johtaa kilpailua?

Ensimmäinen laki: Ihmisten hyvinvointi

Tutkijoiden ensimmäinen postulaatti on keskittää tekoälyn työ ihmisen hyvinvointiin. "Inhimillisten arvojen, terveen järjen ja etiikan" puutteen vuoksi tekoäly voi toimia tavalla, joka johtaa ihmisen hyvinvoinnin merkittävään heikkenemiseen. Ongelmat voivat johtua tekoälyn yli-inhimillisistä kyvyistä (esimerkiksi siitä, kuinka helposti tekoäly voittaa ihmiset - eikä vain shakissa), mutta myös siitä, että tekoäly ei ajattele itse, eikä siksi pysty "suodattamaan" harhaa tai ilmeisiä virheitä.

AI Postulat

- Mainos -

Tutkijat huomauttavat, että liiallinen luottamus tekoälyteknologiaan voi vaikuttaa negatiivisesti ihmisten hyvinvointiin. Yhteiskunta, jolla on vähän ymmärrystä tekoälyalgoritmien todellisesta toiminnasta, on taipumus luottaa siihen liikaa, tai päinvastoin, suhtautuu negatiivisesti tietyn mallin, erityisesti chatbottien, tuottamaan sisältöön. Nämä ja muut tekijät huomioon ottaen Garibayn tiimi kehottaa asettamaan ihmisten hyvinvoinnin tulevaisuuden tekoälyn ja ihmisen vuorovaikutuksen keskipisteeseen.

Lue myös: ChatGPT: yksinkertainen käyttöopas

Toinen laki: Vastuu

Vastuullisuus on termi, joka nousee jatkuvasti esiin tekoälymaailmassa sen yhteydessä, mihin käytämme koneoppimista ja miten tekoälymalleja ja -algoritmeja kehitetään ja koulutetaan. Kansainvälinen tiimi korostaa, että tekoälyn suunnittelun, kehittämisen ja toteutuksen tulee tapahtua yksinomaan hyvillä aikomuksilla.

AI Postulat

Heidän mielestään vastuuta ei tulisi tarkastella vain teknisessä vaan myös oikeudellisessa ja eettisessä kontekstissa. Teknologiaa tulee tarkastella paitsi sen tehokkuuden kannalta, myös sen käytön yhteydessä.

"Edistyneiden koneoppimistekniikoiden käyttöönoton myötä on entistä tärkeämpää ymmärtää, miten päätös tehtiin ja kuka siitä on vastuussa”- kirjoittavat tutkijat.

Kolmas laki: Luottamuksellisuus

Yksityisyys on aihe, joka on bumerangi mukana jokaisessa teknologiaa koskevassa keskustelussa. Varsinkin kun kaikesta keskustellaan sosiaalisessa mediassa. Tämä on kuitenkin erittäin tärkeää tekoälylle, koska sitä ei ole olemassa ilman tietokantaa. Ja mitä tietokannat ovat?

Tiedemiehet kuvailevat niitä "abstraktiksi perusrakennuspalikoista, jotka muodostavat tapamme nähdä maailman." Nämä lohkot ovat yleensä arkipäiväisiä arvoja: värejä, muotoja, tekstuureja, etäisyyksiä, aika. Vaikka kapea tekoäly keskittyi yhteen tavoitteeseen, kuten siihen, missä määrin suljin avautuu tietyllä valovoimakkuudella, käyttää julkisesti saatavilla olevaa objektiivista dataa, mutta tekoäly laajemmissa sovelluksissa (tässä esimerkiksi tekstistä kuvaksi -mallit, kuten Midjourney, tai kielimallit, kuten ChatGPT ) voivat käyttää ihmisiä koskevia ja heidän luomiaan tietoja. Mainittakoon myös lehdistössä julkaistut artikkelit, kirjat, kuvitukset ja Internetissä julkaistut valokuvat. Tekoälyalgoritmeilla on pääsy kaikkeen, koska me itse annoimme sen heille. Muuten hän ei tiedä mitään eikä anna vastauksia mihinkään kysymykseen.

AI Postulat

Käyttäjätiedot vaikuttavat olennaisesti sekä ihmisiin, joista näitä tietoja kerätään, että ihmisiin järjestelmässä, jossa tekoälyalgoritmit toteutetaan.

Siksi kolmas haaste liittyy yksityisyyden laajaan ymmärtämiseen ja sellaisten oikeuksien tarjoamiseen kuin oikeus jäädä yksin, oikeus rajoittaa pääsyä itseensä, oikeus henkilökohtaisen elämän tai liiketoiminnan salassapitoon, oikeus valvoa henkilökohtaisia ​​asioita. tieto, eli oikeus suojella persoonallisuuttaan, yksilöllisyyttään ja ihmisarvoaan. Kaikki tämä on kirjoitettava algoritmeihin, muuten yksityisyyttä ei yksinkertaisesti ole olemassa, ja tekoälyalgoritmeja voidaan käyttää petollisissa suunnitelmissa ja rikoksissa.

Lue myös: 7 tyylikkäintä tapaa käyttää ChatGPT:tä

Neljäs laki: Hankkeen rakenne

Tekoäly voi olla äärimmäisen yksinkertaista ja yksikäyttöistä, mutta laajemmissa, laaja-alaisen ja moniajoluonteisissa malleissa ongelmana ei ole vain tietosuoja, vaan myös suunnittelurakenne.

Esimerkiksi GPT-4, OpenAI:n uusin tekoälymalli, huolimatta sen koosta ja vaikutuksesta tekoälymaailmaan (ja sen ulkopuolelle), ei ole täysin julkista dokumentaatiota. Eli meillä ei ole käsitystä siitä, mitkä ovat kehittäjien lopulliset tavoitteet, mitä he haluavat saada lopputuloksesta. Siksi emme voi täysin arvioida tämän tekoälymallin käyttöön liittyviä riskejä. Toisaalta GPT-3, joka on koulutettu 4chan-foorumin tiedoilla, on malli, jonka kanssa et todellakaan halua olla vuorovaikutuksessa. 4chan-foorumi on yksi Internetin mielenkiintoisimmista ilmiöistä. Tämä on esimerkki absoluuttisesta, täydellisestä anarkiasta, jota ei käytännössä rajoita mikään kehys. Täällä luotiin hakkerointiryhmät, kuten Anonymous tai LulzSec. Se on monien suosituimpien meemien lähde, paikka keskustella kiistanalaisista aiheista ja julkaista vielä kiistanalaisempia mielipiteitä. Vaikka englanninkielinen kuvataulu huomauttaa, että "toistaiseksi se on laillista", tämä on hieman kyseenalaista, koska 4chan on ajoittain tekemisissä tiedotusvälineiden kanssa, mukaan lukien rasistinen, natsi- ja seksistinen sisältö.

AI Postulat

- Mainos -

Professori Garibayn tiimi haluaa jokaisen tekoälyn mallin toimivan selkeästi määritellyissä puitteissa. Ei vain sen henkilön hyvinvoinnista, jonka kanssa tekoäly on vuorovaikutuksessa, vaan myös kyvystä arvioida mallin käyttöön liittyviä riskejä. Projektin rakenteessa tulee huomioida eri kulttuuriryhmien ja sidosryhmien tarpeet, arvot ja toiveet. Tekoälyn luomis-, koulutus- ja hienosäätöprosessin tulee keskittyä ihmisten hyvinvointiin ja lopputuotteen – tekoälymallin – tulisi keskittyä itse ihmisyhteisön tuottavuuden parantamiseen ja parantamiseen. Malleissa, joissa riskejä ei voida tunnistaa, tulisi olla rajoitettu tai valvottu pääsy. Niiden ei pitäisi olla uhka ihmiskunnalle, vaan päinvastoin edistää ihmisen ja koko yhteiskunnan kehitystä.

Lue myös: Twitter Elon Muskin käsissä - uhka vai "parannus"?

Viides laki: Hallinto ja riippumaton valvonta

Tekoälyalgoritmit muuttivat maailmaa kirjaimellisesti vain yhdessä vuodessa. Bard by Google ja Bing saavat ensi-iltansa Microsoft vaikutti merkittävästi molempien jättiläisten osakkeisiin pörssissä. Muuten, ne vaikuttivat näiden yritysten osakkeiden kasvuun jopa osakkeiden taustalla Apple. Koululaiset ovat alkaneet käyttää ChatGPT:tä aktiivisesti, he kommunikoivat sen kanssa, tutkivat sitä ja esittävät kysymyksiä. Tärkeintä on, että hänellä on kyky oppia itse, korjata virheensä. Tekoäly alkaa jopa toimia joidenkin maiden hallituksissa. Tämä on Romanian pääministerin Nicolae Chucan tapaus palkkasi virtuaalisen avustaja, joka kertoo hänelle yhteiskunnan tarpeista. Eli tekoälyllä on yhä tärkeämpi rooli elämässämme.

AI

Koska tekoälyn, ihmisten ja ympäristön välillä on jatkuvasti lisääntyvä keskinäinen riippuvuus, tiedemiehet pitävät tarpeellisena luoda hallintoelimiä ja riippumatonta valvontaa sen kehityksestä. Nämä elimet hallitsevat tekoälyn koko elinkaarta ideasta kehitykseen ja toteutukseen. Viranomaiset määrittelevät oikein eri tekoälymallit ja pohtivat tekoälyyn ja sosiaalisen elämän aiheisiin liittyviä tapauksia. Toisin sanoen tekoälystä voi tulla oikeudenkäyntien ja oikeudenkäyntien aihe. Vaikka tietenkään ei hän henkilökohtaisesti, vaan hänen kehittäjät.

Lue myös: Kaikki Neuralinkista: Cyberpunk-hulluuden alku?

Kuudes laki: Ihmisen ja tekoälyn vuorovaikutus

Tekoälyohjelmista jokainen voi löytää jotain itselleen: luoda tekstiä, havaita kuvien sisältöä, vastata kysymyksiin, generoida kuvia, tunnistaa ihmisiä kuvista, analysoida dataa. Nämä useat käyttötarkoitukset eivät ole huolenaihe vain ihmisille, jotka yrittävät mukauttaa tekoälyä laillisiin ja eettisiin standardeihin. Monet pelkäävät joutuvansa syrjäytymään työmarkkinoilta tekoälymallien vuoksi. Koska tekoälyalgoritmit pystyvät tekemään saman asian nopeammin, halvemmalla ja ehkä jopa paremmin kuin ihminen. Samalla on ihmisiä, jotka luottavat tekoälyyn työssään, eli tekoäly on jo nykyään heille korvaamaton apulainen.

AI

Mutta tutkijoiden mainitsemista tutkimuksista on selvää, että ihmisten korvaaminen halvalla keinotekoisella työvoimalla on vielä melko kaukana. Tästä huolimatta he korostavat jo tarvetta luoda tiukka hierarkia ihmisten ja tekoälyn välille. Heidän mielestään ihmiset tulisi asettaa tekoälyn yläpuolelle. Tekoälyä tulee luoda kunnioittaen ihmisen kognitiivisia kykyjä, ottaen huomioon hänen tunteensa, sosiaalinen vuorovaikutus, ideat, suunnittelu ja vuorovaikutus esineiden kanssa. Eli kaikissa tilanteissa ihmisen tulee seisoa tekoälyn yläpuolella, hallita mallin luomaa käyttäytymistä ja sisältöä sekä olla siitä vastuussa. Yksinkertaisesti sanottuna, jopa edistyneimmän tekoälyn on toteltava henkilöä eikä ylitettävä sitä, mikä on sallittua, jotta se ei vahingoita sen luojaa.

Lue myös: Kuinka Ukraina käyttää ja mukauttaa Starlinkiä sodan aikana

Johtopäätökset

Kyllä, joku sanoo, että tutkijat eivät osoittaneet raportissaan mitään tärkeää ja uutta. Kaikki ovat puhuneet tästä jo pitkään. Mutta jo nyt on välttämätöntä laittaa tekoäly johonkin lakikehykseen. GPT-4:n kurkottaminen on kuin veitsen kurkottaminen sokeasti. He piilottavat meiltä keskeiset tiedot. Kaikki tekoälyn kehitys ja erityisesti Open AI:n ChatGPT-projekti muistuttavat minua usein pienen lapsen kasvattamisesta. Joskus näyttää siltä, ​​​​että tämä on muukalaista alkuperää oleva lapsi. Kyllä, muukalainen, mutta hän on silti lapsi, joka oppii, tekee virheitä, joskus käyttäytyy sopimattomasti, on ärtyisä, riitelee vanhempiensa kanssa. Vaikka se kasvaa ja kehittyy hyvin nopeasti.

AI

Ihmiskunta ei ehkä pysy kehityksensä perässä, ja asiat voivat riistäytyä hallinnasta. Siksi ihmiskunnan on jo ymmärrettävä miksi kehitämme tätä kaikkea, tiedettävä perimmäiset tavoitteet, oltava "vastuullisia vanhempia", koska muuten "lapsi" voi yksinkertaisesti tuhota "vanhempansa".

Lue myös: 

Yuri Svitlyk
Yuri Svitlyk
Karpaattien poika, tuntematon matematiikan nero, "lakimies"Microsoft, käytännöllinen altruisti, vasen-oikea
- Mainos -
Kirjaudu
Ilmoita asiasta
vieras

0 Kommentit
Upotetut arvostelut
Näytä kaikki kommentit