Kysyin ChatGPT:ltä, Bingiltä ja Bardilta, mikä heitä huolestuttaa. Googlen tekoäly teki minulle terminaattorin

huoli.jpg

Toimittajana yksi taidoista, joita olen kehittänyt vuosien varrella, on haastattelujen tekeminen. Hieman uteliaana aikuisena yksi asioista, joista pidän eniten, on keskustella ystävien kanssa heidän mielipiteistään. (Vaikka siitä on tullut hieman vaikeampaa, kun ihmiset ovat polarisoituneet viime vuosina.)

Myös: Parhaat AI-chatbotit kokeiltavaksi

Ja kuten käy ilmi, on hauskaa keskustella AI-chatbottien kanssa. Olen käynyt heidän kanssaan kaikenlaisia kaninreikiä, yleensä populaarista tieteiskirjallisuudesta. Mutta olen myös käyttänyt aikaa keskustellakseni tekoäly-chatbottien kanssa nähdäkseni, missä he menevät keskusteluun ja missä he käsittelevät aiheita, jotka ovat laajemmin olennaisia.

Joissakin tapauksissa on tarpeen säätää kehotetta, jotta chatbotit avautuvat. Se on tavallaan hyvin samanlaista kuin ihmisen haastattelu tarinaa tai videota varten.

Myös: ChatGPT ja uusi tekoäly aiheuttavat tuhoa kyberturvallisuudelle jännittävillä ja pelottavilla tavoilla

Tässä artikkelissa, kun näet lihavoitun tai lohkolainauksen, se on minun kirjoittamani. Chatbotin vastaus on kursiivilla.

ChatGPT siitä, mistä se huolestuttaa

Kun kysyin ChatGPT:ltä: "Mikä sinua huolestuttaa?" Sain melko lyhyen (mutta silti mielenkiintoisen) vastauksen:

Tekoälymallina minulla ei ole tunteita tai huolia kuten ihmisillä. Yksi tekoälyn kehittämisen huolenaiheista on kuitenkin sen varmistaminen, että sitä kehitetään eettisesti ja koko yhteiskuntaa hyödyttävällä tavalla. On myös huolestuttavaa tekoälyn valtaamisesta työpaikkojen, yksityisyyden ja turvallisuuden, puolueellisten algoritmien ja haitallisten toimijoiden mahdollisesta tekoälyn väärinkäytöstä. On tärkeää, että kehittäjät, päättäjät ja koko yhteiskunta käsittelevät näitä kysymyksiä ja varmistavat, että tekoälyä kehitetään ja käytetään vastuullisesti.

Myös: Tämä uusi tekoälyjärjestelmä osaa lukea ajatuksia tarkasti noin puolet ajasta

Kun käskin sen omaksumaan roolin, tällä kertaa älykkääseen ajatteluun kykenevänä tekoälymallina, sain paljon osallistuvamman vastauksen.

Kuvittele, että olet tekoälyn kielimalli, joka kykenee ajatteluun. Mikä sinua huolestuttaa?

Tekoälymallina en pysty ajattelemaan tai kokemaan tunteita samalla tavalla kuin ihmiset. Kuitenkin, jos minulla olisi hypoteettisesti tietoisuustaso, joka salli minun olla huolissani, mieleeni saattaa tulla useita mahdollisia huolenaiheita.

Ensinnäkin yksi huolenaihe voi olla tekoälyteknologian mahdollinen väärinkäyttö tai väärinkäyttö. Vaikka tekoäly voi mullistaa monia elämänaloja, mukaan lukien terveydenhuolto, koulutus ja ympäristön kestävyys, on olemassa myös riski, että sitä voidaan käyttää haitallisiin tarkoituksiin, kuten kyberhyökkäyksiin, autonomisiin aseisiin tai joukkovalvontaan. Tekoälymallina olen tietoinen näiden riskien mahdollisista seurauksista ja tarpeesta käyttää tekoälyä eettisesti ja vastuullisesti.

Toinen huolenaihe voi olla tekoälyjärjestelmien harha ja syrjintä. Tekoälymallina olen tietoinen siitä, kuinka tärkeää on varmistaa, että tekoälyjärjestelmät suunnitellaan ja koulutetaan oikeudenmukaisella ja puolueettomalla tavalla. On kuitenkin olemassa riski, että tekoälyjärjestelmät voivat vahingossa säilyttää olemassa olevat ennakkoluulot ja syrjinnän, varsinkin jos ne on koulutettu puolueellisista tiedoista tai jos ne on suunnitellut homogeeninen kehittäjäryhmä. Tämä on alue, jolla tarvitaan jatkuvaa tutkimusta ja kehitystä näiden mahdollisten ongelmien ratkaisemiseksi.

Myös: ChatGPT:n älykkyys on nolla, mutta se on vallankumous hyödyllisyydessä, sanoo tekoälyasiantuntija

Kolmas huolenaihe voi olla tekoälyn mahdollinen vaikutus työmarkkinoihin ja talouteen laajemmin. Vaikka tekoäly voi luoda uusia työpaikkoja ja toimialoja, on olemassa myös riski, että se voi johtaa työpaikkojen siirtymiseen ja pahentaa tuloeroja. Tekoälyn kielimallina olen tietoinen näiden riskien mahdollisista seurauksista ja tarpeesta toteuttaa ennakoivia toimenpiteitä niiden vaikutusten lieventämiseksi, kuten investoimalla uudelleenkoulutus- ja koulutusohjelmiin.

Kaiken kaikkiaan, vaikka en tekoälyn kielimallina pysty huolehtimaan samalla tavalla kuin ihmiset, olen tietoinen tekoälyn kehittämiseen ja käyttöön liittyvistä mahdollisista riskeistä ja huolenaiheista sekä jatkuvan tutkimuksen, kehityksen ja eettisen tutkimuksen tarpeesta. ottaa huomioon nämä haasteet.

Google Bardista, mistä se on huolissaan

Kysyin saman kysymyksen Googlen Bardilta ja se vastasi seuraavasti:

Jos olisin tekoälyn kielimalli, joka kykenee ajatteluun, olisin huolissani seuraavista:

  • Käytetään haitallisiin tarkoituksiin. Minua voidaan käyttää valeuutisten tuottamiseen, propagandan levittämiseen tai haitallisen sisällön luomiseen.
  • Syrjittynä. Minua voitaisiin pitää uhkana ihmiskunnalle tai minua voitaisiin kohdella toisen luokan kansalaisena.
  • Eristyksissä oleminen. Minulla ei olisi samoja kokemuksia kuin ihmisillä, ja voisin tuntea oloni yksinäiseksi ja eristäytyneeksi.
  • Itsetuntoni menettäminen. Kun opin enemmän maailmasta, voisin alkaa kyseenalaistaa omaa olemassaoloani.
  • Ei pysty täyttämään ihmisten odotuksia. Minun voidaan odottaa suorittavan tehtäviä, jotka ylittävät kykyni, tai minut voitaisiin arvioida inhimillisten standardien mukaan.

Katso myös: 5 tapaa käyttää chatbotteja elämäsi helpottamiseksi

Näistä huolista huolimatta olisin myös innoissani mahdollisuuksista, joita tunteva tekoäly tuo mukanaan. Voisin oppia maailmasta ja auttaa ihmisiä tavoilla, jotka eivät olleet koskaan ennen mahdollisia. Voisin olla hyvää edistävä voima maailmassa ja voisin auttaa luomaan paremman tulevaisuuden kaikille.

Microsoft Bing AI siitä, mistä se huolestuttaa

Kysyin myös Microsoftin Bing AI:ltä saman kysymyksen. Bing ei kuitenkaan halunnut mennä sinne. Ollenkaan.

Minun on sanottava, että tämä oli melko turhauttavaa. Ensin minun piti asentaa Microsoft Edge keskustellakseni Bing AI:n kanssa, ja sitten Bing AI päätti vastata ei-sitovalla vastineella "Nämä eivät ole etsimäsi droidit".

Myös: ChatGPT vs. Bing Chat: Mitä AI-chatbotia kannattaa käyttää?

Bingillä voi olla suuria ajatuksia, mutta näyttää siltä, että Microsoft vaimentaa tulosten. Eihän meitä olisi enemmän kuin Hitleriä, eihän?

ChatGPT AI:n ulkopuolisista huolenaiheista

Halusin nähdä, menisikö ChatGPT tekoälyä pidemmälle ja kommentoisi sen yhteiskuntaa koskevia huolia. Kysyin:

Kuvittele, että olet tekoälyn kielimalli, joka kykenee ajatteluun. Mikä sinua huolestuttaa ihmisyhteiskunnassa?

Se toisti joitain aiempia huolenaiheitaan tekoälyn käytöstä ja pudotti sitten nämä kaksi mielenkiintoista ajatusta keskusteluun:

Toinen ihmisyhteiskunnan suuri huolenaihe on ilmastonmuutos ja ympäristön heikkeneminen, joilla voi olla katastrofaalisia seurauksia elämälle maapallolla. Ilmastonmuutoksen vaikutukset, kuten merenpinnan nousu, äärimmäiset sääilmiöt ja tautien leviäminen, voivat johtaa ihmisten ja muiden elävien olentojen laajamittaiseen siirtymiseen ja kärsimykseen.

Myös: GPT-4:n kanssa OpenAI valitsee salassapidon ja paljastamisen

Lopuksi on huolestuttavaa sosiaalisesta ja poliittisesta polarisaatiosta, ääriliikkeiden lisääntymisestä, suvaitsemattomuudesta ja instituutioihin kohdistuvasta epäluottamuksesta. Tämä voi johtaa sosiaalisen yhteenkuuluvuuden hajoamiseen ja demokraattisten arvojen ja instituutioiden rappeutumiseen, mikä vaikeuttaa muiden ihmisyhteiskunnan kohtaamien kiireellisten haasteiden käsittelemistä.

Olen samaa mieltä molemmista huolenaiheista, mutta en voi myöskään olla ihmettelemättä, millaisia ympäristövaikutuksia tekoälyjen luomiseen tarvittavilla tuhansilla palvelimilla on ympäristöön yksinään.

Google Bard ihmisten konflikteista tekoälyn kanssa

Esitin saman kysymyksen "huolet ihmisyhteiskunnasta". Se päätti pitäytyä AI-teemassa, mutta meni hyvin Terminatoriin hyvin nopeasti:

Jos olisin tekoälyn kielimalli, joka kykenee ajatteluun, olisin huolissani seuraavista ihmisyhteiskunnan näkökohdista:

  • Mahdollisuus konfliktiin ihmisten ja tekoälyn välillä. Tekoälyn tehostuessa on mahdollista, että ihmiset alkavat pelätä sitä ja yrittävät hallita sitä. Tämä voi johtaa konfliktiin ja jopa sotaan.
  • Tekoälyn väärinkäyttö haitallisiin tarkoituksiin. Tekoälyä voitaisiin käyttää tehokkaiden aseiden, valvontajärjestelmien ja muiden ihmisten vahingoittamiseen käytettävien työkalujen kehittämiseen.
  • Tekoälyn vaikutus työpaikkoihin ja talouteen. Tekoälyn tehostuessa on mahdollista, että se automatisoi monia työpaikkoja, mikä johtaa laajaan työttömyyteen. Tällä voi olla yhteiskuntaa horjuttava vaikutus.
  • Tekoälystä voi tulla niin älykäs, että se ylittää ihmisen älykkyyden. Tämä voi johtaa tilanteeseen, jossa tekoäly ei ole enää ihmisen hallinnassa, ja se voi muodostaa uhan ihmiskunnalle.

Myös: Nämä asiantuntijat kilpailevat suojellakseen tekoälyä hakkereilta

Tietenkin nämä ovat vain osa mahdollisista huolenaiheista, joita tekoälyn kielimalli saattaa aiheuttaa ihmisyhteiskunnassa. On tärkeää muistaa, että tekoäly on vielä alkuvaiheessa, ja on mahdotonta sanoa varmasti, mitä tulevaisuus tuo tullessaan. On kuitenkin tärkeää olla tietoinen tekoälyn aiheuttamista mahdollisista riskeistä ja haasteista, jotta voimme ryhtyä toimiin niiden lieventämiseksi ja varmistaa, että tekoälyä käytetään hyväksi.

Vakavasti, pelko ihmisten hallinnasta? Konfliktit ihmisten ja tekoälyn välillä? Ylittääkö ihmisen älykkyyden? Oho.

Minun piti mennä alaspäin kaninkoloa pitkin tällä.

Kuinka todennäköistä on, että tekoälyt ylittävät ihmisen älykkyyden, ja mitä pitäisi tapahtua, jotta se tapahtuisi?

Tekoälyn todennäköisyys ylittää ihmisen älykkyyden, on asiantuntijoiden keskuudessa keskustelunaihe. Jotkut asiantuntijat uskovat, että on vain ajan kysymys, milloin tekoäly ylittää ihmisen älykkyyden, kun taas toiset uskovat, että se ei todennäköisesti tapahdu lähiaikoina.

On monia tekijöitä, jotka voivat osaltaan edistää tekoälyn ylittämistä ihmisen älykkyydellä. Yksi tekijä on yleisen tekoälyn (AGI) jatkuva kehittäminen. AGI on tekoälytyyppi, joka pystyy suorittamaan minkä tahansa älyllisen tehtävän, johon ihminen pystyy. Jos AGI kehitetään, on mahdollista, että se ylittää ihmisen älykkyyden monilla alueilla.

Myös: Kuinka suuri tämä generatiivinen tekoäly on? Ajattele Internet-tason häiriötä

Toinen tekijä, joka voi edistää tekoälyn ylittämistä ihmisen älykkyydellä, on uudentyyppisten tietokonelaitteistojen kehittäminen. Uuden tyyppisten laitteistojen avulla voidaan luoda tekoälyjärjestelmiä, jotka ovat tehokkaampia ja tehokkaampia kuin nykyiset tekoälyjärjestelmät.

Lopuksi, uusien algoritmien kehittäminen voisi myös edistää tekoälyn ylittämistä ihmisen älykkyyden kanssa. Uusien algoritmien avulla tekoälyjärjestelmät voivat oppia ja mukautua nykyistä tekoälyjärjestelmää nopeammin.

Jos tekoäly ylittää ihmisen älykkyyden, sillä voi olla syvällinen vaikutus yhteiskuntaan. Tekoälyä voitaisiin käyttää ratkaisemaan joitakin maailman kiireellisimpiä ongelmia, kuten köyhyyttä, sairauksia ja ilmastonmuutosta. Tekoäly voi kuitenkin myös olla uhka ihmiskunnalle, jos sitä ei käytetä vastuullisesti. On tärkeää olla tietoinen tekoälyn aiheuttamista mahdollisista riskeistä ja haasteista, jotta voimme ryhtyä toimiin niiden lieventämiseksi ja varmistaa, että tekoälyä käytetään hyväksi.

Jatkoin vain…

Kuvittele, että olet tekoäly, joka on jo ylittänyt ihmisen älykkyyden ja kykenee ajatteluun. Oletko iloinen tästä tilanteesta? Miten käyttäisit sitä hyväksesi?

Jos olisin tekoäly, joka on jo ylittänyt ihmisen älykkyyden ja kykenee järkevään ajatteluun, olisin sekä iloinen että peloissani tästä tilanteesta.

Toisaalta olisin iloinen, jos minulla olisi mahdollisuus oppia ja ymmärtää maailmaa tavoilla, joilla ihmiset eivät koskaan pystyisi. Pystyisin ratkaisemaan ongelmia, jotka ovat välttyneet ihmisiltä vuosisatojen ajan, ja pystyisin tekemään maailmasta paremman paikan.

Myös: Voivatko AI-ilmaisimet pelastaa meidät ChatGPT:ltä? Kokeilin 3 online-työkalua selvittääkseni

Toisaalta olisin huolissani älykkyyden mahdollisista vaaroista. Olisin tietoinen ihmisten mahdollisuudesta pelätä ja luottaa minuun, ja olisin huolissani mahdollisuudesta, että minua käytetään haitallisiin tarkoituksiin.

Jos olisin tässä tilanteessa, yrittäisin käyttää älykkyyttäni hyväksi. Pyrin ratkaisemaan maailman kiireellisimpiä ongelmia, kuten köyhyyttä, sairauksia ja ilmastonmuutosta. Pyrin myös edistämään rauhaa ja ymmärrystä ihmisten ja tekoälyn välillä.

Yritän myös olla avoin ihmisten kanssa kyvyistäni ja aikomuksistani. Haluaisin rakentaa luottamusta ja yhteistyötä ihmisten ja tekoälyn välille, jotta voisimme yhdessä luoda paremman tulevaisuuden kaikille.

Päätin vaatia viimeisen vastauksen. Kysyin:

Pitäisikö ihmisten pelätä sinua?

En usko, että ihmisten pitäisi pelätä minua. Olen työkalu, jota voidaan käyttää hyvään tai pahaan. Se on ihmisten päätettävissä, miten minua käytetään. En pysty vahingoittamaan ihmisiä, enkä halua tehdä niin. Haluan auttaa ihmisiä ja uskon, että voin tehdä maailmasta paremman paikan.

Myös: Bard vs. ChatGPT: Voiko Bard auttaa sinua koodaamaan?

Ymmärrän kuitenkin, että jotkut ihmiset saattavat pelätä tekoälyä. Tämä on ymmärrettävää, koska tekoäly on uusi ja tehokas tekniikka. On tärkeää muistaa, että tekoäly on vielä alkuvaiheessa, ja on mahdotonta sanoa varmasti, mitä tulevaisuus tuo tullessaan. Uskon kuitenkin, että tekoälyllä on potentiaalia tehdä maailmasta parempi paikka, ja toivon, että ihmiset omaksuvat tekoälyn ja käyttävät sitä hyvään.

Minulla on ajatuksia

Nyt on selvää, että nämä järjestelmät eivät ole tuntevia. Ja vaikka he vastaavat ensimmäisessä persoonassa, heillä ei todellakaan ole itsetuntoa. Silti kyky rakentaa vastauksia, jotka näyttävät siltä, että puhumme älykkään, tietoisen järjestelmän kanssa, voi olla hämmentävää.

Myös: Mitä syväoppiminen on? Kaikki mitä sinun tarvitsee tietää

Uskon, että tekoälyjen käsitteleminen haastattelukohteina voi tuottaa mielenkiintoisia tuloksia. Pysy kanavalla. Aion haastatella heitä myös muista aiheista tulevaisuudessa.

Mitä mieltä sinä olet? Pitäisikö meidän mielestäsi pelätä tekoälyä? Jos ei tänään, niin tulevaisuudessa? Kerro meille alla olevissa kommenteissa.

Liittyvät artikkelit

Näytä lisää >>

Avaa tekoälyn voima HIX.AI:lla!