Root NationUutisetIT-uutisiaMicrosoft julkisti suojaavan tekoälyratkaisun, joka perustuu GPT-4 Security Copilotiin

Microsoft julkisti suojaavan tekoälyratkaisun, joka perustuu GPT-4 Security Copilotiin

-

Tekoälyjärjestelmiä (AI) käytetään jo grafiikan, chatbottien ja jopa älykotien ohjaamiseen. Yhtiö Microsoft Hän antoi tekoälylle yhden modernin elämän tärkeimmistä osa-alueista – suojauksen kyberuhkia vastaan. Security Copilot -työkalun avulla voit tunnistaa kyberhyökkäyksen, vaikka siinä ei olisi ilmeisiä merkkejä, ja auttaa sen poistamisessa.

Tilanteissa, joissa tietokoneesi turvallisuus on jostain syystä vaarantunut, Security Copilot auttaa sinua määrittämään, mitä tapahtui, mitä tehdä ja miten estää vastaavia tapauksia muille. Yhtiö esitteli uuden GPT-4-malliin perustuvan ratkaisun - Security Copilot auttaa yritysasiakkaita käsittelemään uhkia.

Microsoft Turvakoipilotti

Toistaiseksi työkalu on vain yritysasiakkaiden käytettävissä. Security Copilotin takana on sama iso kielimalli, joka käyttää Bing Chatin kaltaisia ​​sovelluksia. Tässä tapauksessa puhumme kuitenkin vaihtoehdosta, joka on erityisesti koulutettu IT-ammattilaisten käyttämiin materiaaleihin ja terminologiaan. Lisäksi, Microsoft on jo integroinut Copilotin muihin tietoturvatyökaluihinsa. Yhtiö lupaa, että ajan myötä se voi käyttää kolmannen osapuolen ohjelmistoratkaisuja.

Vaikka useimmat GPT-4-pohjaiset mukautetut sovellukset on koulutettu jonkin verran vanhentuneisiin tietokokonaisuuksiin, Security Copilot saa uusia oivalluksia reaaliajassa tutkimalla kirjaimellisesti biljoonia uhkasignaaleja, jotka Microsoft saa päivittäin. Tämä on mallin etu - Security Copilot pystyy tunnistamaan piilotetut signaalit jo ennen kuin hyökkäyksen tosiasia on tullut selväksi. Tämän ansiosta työkalua voidaan käyttää uhkien tunnistamiseen ja ajoissa poistamiseen.

Microsoft Turvakoipilotti

Samaan aikaan tuli selväksi jo kauan sitten, että ChatGPT:n, Bing Chatin tai Google Bardin kaltaisilla tekoälyillä voi olla "hallusinaatioita", joiden aikana "päättelyn" perustana käytetään täysin epäluotettavia faktoja. Turvallisuuden alalla tästä voi tulla erittäin vaarallinen ilmiö. SISÄÄN Microsoft ovat jo vahvistaneet, että Security Copilot "ei aina saa asioita oikein". Onneksi tuotteen tapauksessa Microsoft käyttäjien palautemekanismi tarjotaan yhä merkityksellisempiä vastauksia.

Vielä Microsoft ei raportoinut, mitä voisi tapahtua, kun puolustava tekoäly törmää haitalliseen tekoälyyn, kuten sellaiseen, joka on suunniteltu hyökkäämään käyttäjiä ja yrityksiä vastaan. Joka tapauksessa yritys sanoi, että yritysasiakkaat voivat jo testata Security Copilotia pienellä osalla käyttäjiään. Jos kokeilu onnistuu, se voi todennäköisesti auttaa tavallisia käyttäjiä tulevaisuudessa.

Mielenkiintoista myös:

Dzherelomicrosoft
Kirjaudu
Ilmoita asiasta
vieras

0 Kommentit
Upotetut arvostelut
Näytä kaikki kommentit