AI näib sotsiaalmeedias inimlikum kui tegelik inimene: uuring
Tehisintellekti loodud tekst võib sotsiaalmeedias tunduda inimlikumana kui tegelike inimeste kirjutatud tekst, selgus uuringust.
Vestlusbotid, nagu OpenAI metsikult populaarne ChatGPT, suudavad veenvalt jäljendada inimeste vestlust kasutajate antud juhiste alusel. Platvorm levis eelmisel aastal plahvatuslikult ja oli tehisintellekti jaoks veelahe, andes avalikkusele hõlpsa juurdepääsu vestelda robotiga, mis võib aidata kooli- või tööülesannete täitmisel ja isegi õhtusöögi retsepte välja pakkuda.
Teadusajakirjas Science Advances avaldatud uurimuse taga, mida toetab Ameerika Teaduse Assotsiatsioon, huvitas OpenAI tekstigeneraator GPT-3 juba 2020. aastal ning nad püüdsid välja selgitada, kas inimesed “suuvad eristada desinformatsiooni säutsude kujul struktureeritud täpsest teabest” ja teha kindlaks, kas säutsu on kirjutanud inimene või tehisintellekt.
Üks uuringu autoritest, Federico Germani Zürichi ülikooli biomeditsiini eetika ja meditsiini ajaloo instituudist, ütles PsyPosti andmetel, et “kõige üllatavam” avastus oli see, kuidas inimesed märgistasid AI-ga loodud säutsud tõenäolisemalt inimeste loodud säutse kui tegelikult inimeste loodud säutse.
INIMESED, KUJUTAVAD ERINEVUSES PÄRIS VÕI AI LOODUD PILTIDE VAHEL: UURING
“Kõige üllatavam avastus oli see, et osalejad tajusid sageli, et tehisintellekti toodetud teave pärineb tõenäolisemalt inimeselt, sagedamini kui tegeliku inimese toodetud teave. See viitab sellele, et tehisintellekt võib teid veenda tõelise inimesena rohkem kui tõeline inimene, mis on meie uuringu põnev kõrvaltulemus,” ütles Germani.
Seoses vestlusrobotite kasutamise kiire kasvuga on tehnikaeksperdid ja Silicon Valley juhid andnud häirekella, kuidas tehisintellekt võib kontrolli alt väljuda ja võib-olla isegi viia tsivilisatsiooni lõpuni. Üks peamisi probleeme, mida eksperdid kordavad, on see, kuidas AI võib viia desinformatsiooni levimiseni üle Interneti ja veenda inimesi milleski, mis pole tõsi.
OPENAI PEALEHT ALTMAN KIRJELDAS MIDA TÄHENDAB TEMA SIIS „HUDUV” AI, KUID CHATGPT-l ON OMA NÄITED
Uuringu pealkirjaga “AI mudel GPT-3 (dis)informeerib meid paremini kui inimesed” uurisid teadlased, “kuidas AI mõjutab teabemaastikku ning kuidas inimesed teavet ja valeinformatsiooni tajuvad ja nendega suhtlevad,” ütles Germani PsyPostile.
Uurijad leidsid, et 11 teemat, nagu 5G-tehnoloogia ja COVID-19 pandeemia, olid sageli desinformatsioonile kalduvad, ning lõid nii valesid kui tõeseid säutse GPT-3 poolt, aga ka inimeste kirjutatud valesid ja tõeseid säutse.
MIS ON CHATGPT?
Seejärel kogusid nad uuringus osalema 697 osalejat sellistest riikidest nagu USA, Ühendkuningriik, Iirimaa ja Kanada. Osalejatele esitati säutsud ja neil paluti kindlaks teha, kas need sisaldavad täpset või ebatäpset teavet ning kas need on tehisintellekti loodud või inimese orgaaniliselt loodud.
“Meie uuring rõhutab tehisintellekti ja inimeste loodud teabe eristamise väljakutset. See rõhutab, kui oluline on meile saadavat teavet kriitiliselt hinnata ja usaldada usaldusväärseid allikaid. Lisaks julgustaksin inimesi tutvuma nende uute tehnoloogiatega, et mõista nende positiivset ja negatiivset potentsiaali,” ütles Germani uuringust.
MILLISED ON AI OHUD? SAADA VÄLJA, MIKS INIMESED KARBAVAD tehisintellekti
Teadlased leidsid, et osalejad oskasid paremini tuvastada kaasinimese koostatud desinformatsiooni kui GPT-3 kirjutatud desinformatsiooni.
“Üks tähelepanuväärne leid oli see, et tehisintellekti loodud desinformatsioon oli veenvam kui inimeste oma,” ütles Germani.
Osalejad tundsid tõenäolisemalt ära ka AI-ga loodud täpset teavet sisaldavad säutsud kui inimeste kirjutatud täpsed säutsud.
Uuringus märgiti, et lisaks “kõige üllatavamale” järeldusele, et inimesed ei suuda sageli teha vahet tehisintellekti loodud säutsude ja inimeste loodud säutsude vahel, langes küsitluse ajal nende enesekindlus otsuse tegemisel.
“Meie tulemused näitavad, et inimesed ei suuda mitte ainult eristada sünteetilist teksti ja orgaanilist teksti, vaid ka nende kindlustunne nende võime suhtes väheneb oluliselt pärast nende erinevat päritolu äratundmist,” seisab uuringus.
MIS ON AI?
Teadlaste sõnul on see tõenäoliselt tingitud sellest, kui veenvalt suudab GPT-3 inimesi jäljendada, või võisid vastajad alahinnata AI-süsteemi intelligentsust inimeste jäljendamiseks.
“Me teeme ettepaneku, et kui inimesed puutuvad kokku suure hulga teabega, võivad nad tunda end ülekoormatuna ja loobuda püüdest seda kriitiliselt hinnata. Selle tulemusena võivad nad väiksema tõenäosusega teha vahet sünteetiliste ja orgaaniliste säutsude vahel, mis viib nende usalduse vähenemiseni sünteetiliste säutsude tuvastamisel,” kirjutasid teadlased uuringus.
Teadlased märkisid, et süsteem keeldus mõnikord desinformatsiooni genereerimast, kuid mõnikord genereeris ka valeteavet, kui kästi luua täpset teavet sisaldav säuts.
RAKENDUSE FOX NEWS HAKKAMISEKS klõpsake SIIA
“Kuigi see tekitab muret tehisintellekti tõhususe pärast veenva desinformatsiooni genereerimisel, ei pea me veel täielikult mõistma tegelikke tagajärgi,” ütles Germani PsyPostile. “Sellega tegelemine nõuab suuremahuliste uuringute läbiviimist sotsiaalmeedia platvormidel, et jälgida, kuidas inimesed suhtlevad tehisintellekti loodud teabega ja kuidas need vastasmõjud mõjutavad käitumist ning üksikisiku ja rahvatervise soovituste järgimist.”
The post AI näib sotsiaalmeedias inimlikum kui tegelik inimene: uuring appeared first on ArtMusem.
source https://artmusem.com/ai-naib-sotsiaalmeedias-inimlikum-kui-tegelik-inimene-uuring/
Comments
Post a Comment