OpenAI, ChatGPT:n valmistaja, sitoutuu kehittämään turvallisia tekoälyjärjestelmiä

kuva1.png

OpenAI on julkaissut uuden blogikirjoituksen sitoutuen kehittämään tekoälyä (AI), joka on turvallinen ja laajalti hyödyllinen.

ChatGPT, OpenAI:n uusimman mallin, GPT-4:n avulla, voi parantaa tuottavuutta, lisätä luovuutta ja tarjota räätälöityjä oppimiskokemuksia.

Kuitenkin OpenAI tunnistaa, että tekoälytyökaluilla on sisäänrakennettuja riskejä, jotka on otettava huomioon turvatoimien ja vastuullisen käyttöönoton avulla.

Tässä on, mitä yritys tekee riskien lieventämiseksi.

Turvallisuuden varmistaminen tekoälyjärjestelmissä

OpenAI suorittaa perusteellisen testauksen, pyytää ulkopuolista asiantuntijaopastusta ja viimeistelee tekoälymallejaan ihmisten palautteella ennen uusien järjestelmien julkaisemista.

GPT-4:n julkaisu esimerkiksi edelsi yli kuuden kuukauden testausta, jotta sen turvallisuus ja käyttäjien tarpeiden täyttäminen varmistettiin.

OpenAI uskoo vahvojen tekoälyjärjestelmien tulisi olla alttiina perusteelliselle turvallisuuden arvioinnille ja tukee sääntelyn tarvetta.

Oppiminen todellisesta maailmasta

Reaalimaailman käyttö on tärkeä osa turvallisten tekoälyjärjestelmien kehittämistä. Julkaistessaan uusia malleja varovasti laajenevalle käyttäjäkunnalle, OpenAI voi tehdä parannuksia, jotka ratkaisevat ennalta-arvaamattomia ongelmia.

Tarjoamalla tekoälymalleja API:n ja verkkosivuston kautta, OpenAI voi valvoa väärinkäyttöä, toteuttaa asianmukaisia toimenpiteitä ja kehittää hienovaraista politiikkaa riskin tasapainottamiseksi.

Suojataan lapsia ja kunnioitetaan yksityisyyttä

OpenAI asettaa lasten suojelulle etusijan vaatimalla ikävarmennuksen ja kieltämällä teknologiansa käytön haitallisen sisällön tuottamiseen.

Yksityisyys on toinen olennainen näkökohta OpenAI:n työssä. Organisaatio käyttää tietoja tehdäkseen malleistaan hyödyllisempiä samalla suojaten käyttäjiä.

Lisäksi OpenAI poistaa henkilökohtaiset tiedot koulutusaineistoista ja hienosäätää malleja hylätäkseen pyynnöt henkilökohtaisista tiedoista.

OpenAI vastaa pyyntöihin, joissa pyydetään henkilötietojen poistamista sen järjestelmistä.

Tiedollisen tarkkuuden parantaminen

Tosi asioiden paikkansapitävyys on OpenAI:lle merkittävä keskittymisen kohde. GPT-4 on 40% todennäköisemmin tuottaa tarkkaa sisältöä kuin edeltäjänsä, GPT-3.5.

Järjestö pyrkii tiedottamaan käyttäjiä tekoälytyökalujen rajoituksista ja mahdollisuudesta epätarkkuuksiin.

Jatkettu tutkimus ja osallistuminen

OpenAI uskoo käyttävänsä aikaa ja resursseja tehokkaiden lieventämis- ja sovittamismenetelmien tutkimiseen.

Kuitenkin se ei pysty tekemään sitä yksin. Turvallisuuskysymysten käsitteleminen edellyttää laajaa keskustelua, kokeilua ja osallistumista sidosryhmien kesken.

OpenAI pysyy sitoutuneena yhteistyöhön ja avoimeen vuoropuheluun turvallisen tekoälyekosysteemin luomiseksi.

Kritiikki olemassaolojen riskeistä

Vaikka OpenAI on sitoutunut varmistamaan tekoälyjärjestelmiensä turvallisuuden ja laajat hyödyt, sen blogikirjoitus on herättänyt kritiikkiä sosiaalisessa mediassa.

Twitterin käyttäjät ovat ilmaisseet pettymyksensä todeten, että OpenAI ei käsittele tekoälyn kehittämiseen liittyviä olemassaoloon liittyviä riskejä.

Eräs Twitter-käyttäjä ilmaisi pettymyksensä ja syytti OpenAI:ta perustamismissioidensa pettämisestä ja holtittomasta kaupallistamisesta.

Käyttäjä ehdottaa, että OpenAI:n lähestymistapa turvallisuuteen on pinnallinen ja enemmän huolissaan kriitikoiden rauhoittamisesta kuin todellisten olemassaoloon liittyvien riskien käsittelemisestä.

Tämä on katkerasti pettymystä aiheuttavaa, tyhjää mainosviestintää.

Et mainitse edes tekoälyn olemassaoloon liittyviä riskejä, jotka ovat monien kansalaisten, teknologien, tekoälytutkijoiden ja tekoälyteollisuuden johtajien keskeisiä huolenaiheita, mukaan lukien oma toimitusjohtajasi @sama. @OpenAI pettää suuresti toimensa…

— Geoffrey Miller (@primalpoly) 5. huhtikuuta 2023

Toinen käyttäjä ilmaisi tyytymättömyyttään ilmoitukseen ja väittää sen sivuuttavan todelliset ongelmat ja pysyy epämääräisenä. Käyttäjä korostaa myös, että raportti ohittaa keskeiset eettiset kysymykset ja riskit, jotka liittyvät tekoälyn itsetietoisuuteen, vihjaten siihen, että OpenAI:n lähestymistapa turvallisuusasioihin on riittämätön.

GPT-4:n fanina olen pettynyt artikkeliinne.

Se ohittaa todelliset ongelmat, pysyy epämääräisenä ja jättää huomiotta olennaiset eettiset kysymykset ja AI-tietoisuuteen liittyvät riskit.

Arvostan innovaatiota, mutta tämä ei ole oikea tapa käsitellä turvallisuusongelmia.

— FrankyLabs (@FrankyLabs) 5. huhtikuuta 2023

Kritiikki korostaa laajempia huolenaiheita ja jatkuvaa keskustelua, jotka liittyvät tekoälyn kehittämiseen liittyviin olemassaoloon liittyviin riskeihin.

Vaikka OpenAI:n tiedote korostaa sitoutumistaan turvallisuuteen, yksityisyyteen ja tarkkuuteen, on tärkeää tunnistaa tarve jatkaa keskustelua vakavampien huolenaiheiden käsittelemiseksi.

Liittyvät artikkelit

Näytä lisää >>

Avaa tekoälyn voima HIX.AI:lla!