Vai esat kādreiz iemīlējies tērzētavā?

Atklāšana: Jūsu atbalsts palīdz vietnei darboties! Mēs nopelnām nodošanas maksu par dažiem pakalpojumiem, kurus mēs iesakām šajā lapā.


Kā izvairīties no iemīlēšanās tērzētavā

Psihologs, kurš iemīlējās tērzētavā

Roberts Epšteins ir ievērojams psihologs un bijušais žurnāla Psychology Today galvenais redaktors. 2006. gadā viņam bija mēnešus ilga tiešsaistes attiecība ar sievieti Evana. Vienīgā problēma bija: Evana izrādījās datorprogramma. Viņš nav viens. Šāda veida datorprogrammas, ko parasti sauc par “tērzēšanas robotiem”, visu laiku paver gudrus, zinošus cilvēkus.

Tātad, vai “domāšanas mašīnas” ir nonākušas realitātē? Nu…

Mūsdienu datori vēl nav sasnieguši tādu krāsainu domāšanas mašīnu sarežģītības pakāpi kā trāpīgi nosauktais robots (“Robot”) no Lost in Space vai alus guzzling Bender no Futurama. Bet viņi ir nogājuši garu ceļu!

1950. gadā matemātiķis Alans Turings izstrādāja to, ko mēs tagad saucam par “pagrieziena testu”, kura mērķis ir noteikt, vai datoru var uzskatīt par inteliģentu. Tas tiešām ir diezgan vienkārši: aklā sarunā ar datoru un cilvēku jūs varat pateikt, kurš ir kurš? Nebija daudz gadu vēlāk, pirms datorprogrammas bija pietiekami sarežģītas, lai konkurētu šādos testos.

Iepazīstieties ar savu jauno psihologu: ELIZA

Līdz 1960. gadu vidum datorzinātnieks Džozefs Veizenbaums izveidoja programmu ELIZA. Tā bija viena no agrākajām programmām, kas izstrādāta, lai parsētu cilvēku runu un reaģētu uz to. Šāda veida “dabiskās valodas apstrāde” ir pamatā lielākajai daļai tērzētavu. Pēc šodienas standartiem ELIZA bija diezgan vienkārša, ko var redzēt, ja pats ar to sarunājaties. Bet tas bija sākums.

50 gadu laikā kopš ELIZA tērzēšanas roboti ir kļuvuši daudz progresīvāki. Šajā brīdī tērzēšanas roboti pat mācās no cilvēkiem, ar kuriem viņi runā. Piemēram, Cleverbot būtībā reaģē, kā uz to iepriekš ir atbildēts līdzīgos apstākļos. Kad tas pirmo reizi tika izveidots 1997. gadā, tam nebija daudz datubāzes, uz kuru balstīties. Bet kopš tā laika tam ir bijuši vairāk nekā 200 miljoni sarunu. Tas ir licis tam attīstīt acīmredzami nerimstošu, dažus teiktu, kaitinošu personību.

Žaut ar digitālo pusaudžu Mitsuku

Citam čatbotam, Mitsuku, ir normālāka personība. Neatkarīgi no tā, nav grūti saprast, kā cilvēki pareizajos apstākļos varētu maldināt kādu no šiem tērzēšanas robotiem (vai daudziem citiem, piemēram, viņiem līdzīgiem) reāliem cilvēkiem.

Iepazīstieties ar visu tērzēšanas robotu vēsturi, pašreizējo stāvokli un to, kā jūs varat izvairīties no viņu maldinošās piekarības.

Čatboti: kā izvairīties no iemīlēšanās ar AI

Kā izvairīties no iemīlēšanās tērzētavā

Filmā Dzelzs vīrs Tonijam Stārkam ir sarunas ar datorprogrammu JARVIS, kas spēj veikt sarunu angļu valodā. Tā ir ļoti izplatīta lieta filmās un romānos, taču tādas programmas kā Apple Siri, kas ir reālās dzīves ekvivalents, nav tik iespaidīgas. Pat ja runājam tikai par tekstuālu saziņu, programmām ir grūti mūs apmānīt, domājot, ka tās ir cilvēki. Apskatīsim tuvāk pirmās komunikācijas programmas, to līdzšinējo progresu un to, ko robotprogrammatūras varētu darīt nākotnē.

Tīringa tests un pēc tam

  • Tjūringa testu 1950. gadā izstrādāja ievērojams datorzinātnieks Alans Tjūrings kā veids, kā izlemt, vai datoru var uzskatīt par inteliģentu
    • Turings lēš, ka programma savu pārbaudījumu izturēs aptuveni 50 gadu laikā
  • Tjūringa pamatpārbaude tiek veikta akli, ja vairāki tiesneši sazinās ar vairākiem dalībniekiem, izmantojot tikai teksta kanālu
    • Viens no dalībniekiem faktiski ir programma
      • Šāda veida programmas parasti tiek sauktas par “chatterbot” vai “chatbot”
      • Atkarībā no tā, kā tiek uzstādīts tests, cilvēku tiesneši var vai nevar zināt, ka kāds no dalībniekiem nav cilvēks
    • Tiesnešiem katram ir piecas minūtes, lai sazinātos ar katru “personu”
      • Tiesneši to dara, uzdodot dalībniekiem jautājumus
    • Ja programma maldina 33% tiesnešu, domājot, ka tā ir īsta persona, tā pāriet
  • Kopš oriģināla ir izstrādāti grūtāki Tjūringa testi, to skaitā:
    • Chatterbox Challenge (CBC):
      • Sākās 2001. gadā kā ikgadējs čatbotu konkurss visā pasaulē
      • Tas, kas to atšķir no citiem chatbot konkursiem, ir tas, ka robotprogrammatūras izveidošanai izmantotās tehnoloģijas veidam ir minimāli ierobežojumi
      • Neatkarīgie tiesneši uzdod virkni jautājumu un novērtē atbildes
      • Astoņi labākie boti pāriet uz finālturnīru
      • Daudzi tērzēšanas roboti, kas sacentās šajā konkursā, ir kļuvuši par komerciālo tehnoloģiju pamatu
    • Loebnera balva:
      • Cilvēkam un tērzētavas personālam ir jākomunicē pa tikai teksta kanālu ar četriem tiesnešiem pa 25 minūtēm katram
      • Balvas
        • Bronzas medaļa: par viscilvēcīgāko
        • Sudraba medaļa: pārliecināt pusi tiesnešu tas ir cilvēcīgi
        • Zelta medaļa: par to, ka neatšķiras no cilvēka un veiksmīgi nokārto audiovizuālo testu:
          • Šāda veida pārbaudē tērzēšanas robotam vajadzētu būt ne tikai spējīgam “saprast” tekstuālo ievadi, bet arī audio un vizuālo ievadi, piemēram, aprakstīt attēlu vai runātu sarunu
        • Vēl jāizsniedz tikai bronzas medaļa
          • Lielāko gadu laikā neviens no tērzēšanas robotiem neliecina nevienu no tiesnešiem
    • Kurzweil / Kapor pārbaude
      • Trīs tiesneši novēro vienu programmu, un trīs cilvēki iesaistās divu stundu sarunā
      • Čatbots uzvar, ja pārliecina divus tiesnešus, ka tas ir cilvēks, un vidēji tiek vērtēts kā “cilvēcīgāks” nekā pārējie konkursa dalībnieki
      • Datorzinātnieks Rejs Kurzveils ir ielicis likmi USD 20 000 vērtībā, ka dators spēs nokārtot šo pārbaudi līdz 2029. gadam, savukārt Mitchell Kapor, EZF līdzdibinātājs, derības datoriem to neizdarīs.
        • Izaicinājums sākās 2002. gadā
        • Neviens čatbots to nav izturējis kopš 2015. gada

Kā darbojas Chatbots?

  • Agrīnie tērzēšanas roboti skenētu cilvēku ievadītos datus un reaģēšanai izmantotu vienkāršu rīku komplektu:
    • Variācijas par tikko teikto
    • Iepriekš rakstītas atbildes uz konkrētiem atslēgvārdiem
    • Frāzes, lai pārorientētu sarunu
  • Piemēram: ELIZA, bija viens no pirmajiem tērzēšanas robotiem
    • To izveidoja Džozefs Veizenbaums 1960. gadu vidū
    • Viens no tā režīmiem bija Rogerian psihoanalītiķis, kurš veica virziena terapiju
    • Tas lielākoties atkārtoja to, kas tika teikts. Bet tā zināja meklēt svarīgus atslēgvārdus:
      • Pacients: Es nejūtos labi.
      • ELIZA: Jūs sakāt, ka nejūtaties labi.
      • Pacients: Jā, mana māte mani mēdza sist.
      • ELIZA: Pastāsti man par savu māti.
    • Ja tas nevarētu parsēt to, ko rakstījis lietotājs, tas atbildētu ar kaut ko vispārīgu, piemēram, “Lūdzu, turpiniet” un “Ko tas jums iesaka?”
  • Mūsdienu tērzēšanas roboti spēj “atcerēties” to, ko citi lietotāji viņiem ir teikuši
    • Tas viņiem ļauj vairāk reaģēt uz cilvēkiem nākamajiem lietotājiem, pamatojoties uz situācijām, ar kurām tā saskārusies ar iepriekšējiem lietotājiem
      • Estere Inglis-Arkell io9 sniedz piemēru tam, kā lietotājs raksta “Scaramouche, scaramouche” un tērzēšanas robotu, atbildot ar karalienes liriku: “Vai jūs darīsit fandango”.

Kad PARRY met ELIZA

  • Gandrīz desmit gadus pēc ELIZA nāca PARRY – paranojas šizofrēnijas čatbots
    • To 1972. gadā izstrādāja psihiatrs Kenets Kolbijs, tā bija daudz progresīvāka programma nekā ELIZA
      • Tas bija balstīts uz modeļiem un empīriskiem datiem par šizofrēnijām
      • Kad tas tika uzrādīts psihiatru grupai, tas izturēja Tjūringa testu
  • PARRY tiekas ar ELIZA
    • Bija acīmredzams, ka PARRY un ELIZA ir jātērē, un viņi to darīja vairākos gadījumos
    • 1973. gada sākumā datorzinātnieks Vints Kerfs caur ARPANET savienoja ELIZA un PARRY, lai savstarpēji sarunātos
    • Šis ir viņu dialoga piemērs:
      • PĒRIS: Man tas traucē tikai būt apkārt cilvēkiem kopumā.
      • ELIZA: Lūdzu, dodieties tālāk.
      • PĒRIS: Es kādu laiku atpakaļ devos uz trasi Bay Meadows.
      • ELIZA: Ko tas tev liek domāt?
      • PARRY: Es devos uz sacīkstēm.

Chatbots kļūst nopietns

  • Jo labāk tērzēšanas roboti kļūst, jo noderīgāki un potenciāli bīstami viņi ir
  • Lolita
    • Negobot, AKA Lolita, ir tērzēšanas robots, kas paredzēts kā naiva 14 gadus veca meitene
    • Projektējis spāņu pētnieki, tas darbojas kā pedofilu lure
    • Tas izmanto spēļu teoriju un mašīnu apguvi, lai reaģētu uz dažādiem ieguldījumiem atbilstoši dažādiem interesējošiem “līmeņiem”
      • Programma pat var uzņemt vecās sarunu tēmas
    • Spānijas policija cer to iekļaut slepenajās operācijās, izmantojot programmu iespējamo pedofilu identificēšanai
  • Jeff_ebooks
    • Kādu dienu holandiešu tīmekļa izstrādātāja Džefrija van der Goota twitter konts izsūtīja ziņojumu: “Es nopietni gribu nogalināt cilvēkus.”
    • Policija bija saprotami nobažījusies, tāpēc devās ar viņu runāt.
    • Problēma bija tā, ka viņš nebija izsūtījis tvītu; tas bija tērzēšanas robots, kuru viņš bija izveidojis, jeff_ebooks
      • Tas tika izveidots, lai izliktu izlases tweets, kas sastāv no van der Goot vecajiem tweets
    • Juridiskie jautājumi, kas saistīti ar van der Goot situāciju, ir šādi:
      • Vai robotprogrammatūras ziņojumu var uzskatīt par “patiesu draudu”?
        • Runas brīvība lielākajā daļā vietu neattiecas uz lietām, kuras tiek uzskatītas par patiesiem draudiem
      • Ja robotprogrammatūras ziņojums tiek uzskatīts par patiesu draudu, kurš ir atbildīgs par šo ziņojumu: robota īpašnieks vai izstrādātājs?
    • Nīderlandes policija lūdza van der Gootu noņemt čivināt
      • Viņš ievēroja – esot “satricinājis”, ka viņa Twitter robots piesaistījis policijas uzmanību
      • Viņš ziņoja, ka viņi viņam teica, ka viņš ir atbildīgs par bota teikto
  • Sgt. Zvaigzne
    • Akronīms “Strong, Trained And Ready”, Sgt. Star ir tērzēšanas robots, kas paredzēts un tiek izmantots ASV armijai
      • Sgt. Star tika izstrādāta no līdzīgām programmām, kuras izmantoja FBI un CIP
    • Sgt. Star tika izvērsts 2003. gadā pēc tam, kad 11. septembra uzbrukumi izraisīja strauju trafiku armijas vietnē
      • Sgt. Star kalpo kā datorizēta BUJ lapa, atbildot uz lietotāju jautājumiem par iesaukšanu, pieņemšanu darbā un daudz ko citu
    • Zinātnieki brīdina, ka tādas robotprogrammatūras kā Sgt. Star ne tikai var savākt privātu informāciju par cilvēkiem, bet arī to, ka nav zināms:
      • Kā tiek aizsargāta šī ierakstītā informācija
      • Kas notiek ar ierakstītajām sarunām, kad tās vairs netiek uzskatītas par atbilstošām
      • Kas notiek, ja robotprogrammatūra atzīmē nekaitīgu runu kā draudīgu vai nelikumīgu

Čatboti kļūst dumji

  • Čats ir interaktīvs elements spēlēm, rotaļlietām un citām izklaidējošām aktivitātēm:
    • Vatsona projekts
      • Izveidojis IBM Dave Ferrucci, 53 gadus vecs Bronx datorzinātnieks, kurš pilnu slodzi strādāja IBM kopš 1994. gada, kad viņš bija beidzis doktora grādu Rensselaer Politehniskajā institūtā
      • Vatsons uzvarēja Jeopardy! 2011. gadā konkursā cilvēks pret mašīnu:
        • Tas bija īpašs daudzdaļu raidījums pret Jeopardy! čempioni Kens Dženingss un Breds Rutters
        • Pēc IBM aprēķiniem, Vatsonam bija 70 procentu iespēja uzvarēt
        • Vatsons paziņoja, ka veiks precīzi 6435 USD par Daily Double pavedienu, un Trebeks, satraukts par specifiku, atbildēja: “Es nejautāšu:”
          • Vatsons laimēja vairāk nekā USD 77 000, trīs reizes vairāk nekā Jennings vai Rutter
        • Vatsona programma:
          • Uzrakstīja pavārgrāmatu
          • Apmācīts molekulārajā bioloģijā un finansēs
          • Ir iesaistīts naftas izpētē
          • Ir pielietots 75 nozarēs 17 valstīs
          • To izmanto desmitiem tūkstošu cilvēku savā pētniecībā un darbā
          • Žurnāls “Wired” paredz, ka Vatsons drīz kļūs par pasaules perfektāko medicīnisko diagnostiku
    • Tinder tiekas ar Ava
      • Filmas Ex Machina vīrusu mārketinga kampaņas ietvaros viņi izveidoja viltus Tinder kontu Ava:
        • Viņi izmantoja filmas zvaigznes fotoattēlu, lai izveidotu krustu starp ELIZA un mākslīgā intelekta (AI) raksturu filmā
        • Ava nosūtīja savus pielūdzējus uz Instagram lapu, kur viņi atklāja, ka viņa ir viltus
        • Kopš tā laika profils ir noņemts; tomēr daži cilvēki, kuri saskatījās ar Ava, ieguva tādas balvas kā biļetes uz filmas pirmizrādi

Kā zināt, ka jūs runājat ar robotu

  • Tērzētavas kļūst arvien dzīvesveidīgākas, un tā kā boti ir atbildīgi par 61,5% tīmekļa trafika, iemācīties pamanīt robotprogrammatūru ir kļuvusi par svarīgu prasmi
  • Tālāk ir norādīti daži veidi, kā noteikt, vai sarunu partneris nav cilvēks:
    • Ievērojiet klasisko tērzētavas izturēšanos:
      • Vai jums ir jāuzsāk katra atbilde??
        • Cilvēku sarunas ne vienmēr notiek vienādi
        • Dažreiz vienam partnerim ir daudz ko teikt, bet otram klausīties
        • Tērzētavas mēdz gaidīt, kad jūs kaut ko uzrakstīsit, pirms atbildēsit
      • Vai tā nespēj atbildēt uz valodas, kas ir augsta vai zema, valodu??
        • Tērzētajiem mēdz būt grūti saprotama sarežģīta runa
        • Tāpat arī daudzi tērzēšanas roboti nesaprot slengu
      • Vai tam ir īsa atmiņa??
        • Chatbots mēdz atkārtot sevi sarunu laikā
        • Viņi var:
          • Uzdodiet to pašu jautājumu
          • Sniedziet dažādas atbildes uz to pašu jautājumu
          • Krasi mainiet tēmu (“aizmirsis” tēmu)
      • Vai tas reaģē ar nesekvencēm??
        • Jautāts, vai tam tiek lasīts jaunais Džona Grišama romāns, tērzēšanas robots varētu atbildēt: “Es dodu priekšroku saldējumam!”
          • Tērzēšanas robots nedara gudru apvainojumu; tas vienkārši nespēj apstrādāt to, ko jūs tikko teicāt
    • Jautājiet par svarīgām tēmām, cilvēkiem vai pašreizējiem notikumiem
      • Čatboti var runāt tikai par visu, ko viņu programmētāji ielikuši atmiņā
      • Cilvēks, iespējams, var identificēt Elvisu, populāru supervaroņa filmu vai globālu krīzi
        • Čatbotiem ir vairāk problēmu ar šīm tēmām
    • Jautājiet par to, kā saruna ir noritējusi līdz šim
      • Cilvēki var uzminēt, ko domā cits cilvēks
        • Viņi balstās uzminējumos uz to, ko domā
      • Čatbots nespēj atspoguļot citas personas domas, jo tā nav persona

Lai arī tērzēšanas robotiem, iespējams, ir niecīga izcelsme, ir skaidrs, ka tie visu laiku kļūst sarežģītāki. Mūsdienu komunikācija lielākoties notiek ar teksta, e-pasta un tiešsaistes tērzēšanas palīdzību, un tērzēšanas iespēju spēja sazināties ar mums caur šiem nesējiem satrauc cilvēkus. Kā mēs zinām, vai “persona” šī tērzēšanas konta otrā galā ir cilvēks vai tērzēšanas robots? Daži, piemēram, Elons Musks, Stīvens Hokings un Bils Geitss, pat ir izteikuši bažas, ka mākslīgais intelekts varētu uzrakstīt cilvēces galu. Tagad tērzēšanas roboti var šķist nekaitīgi, bet kas zina, ko viņi nākotnē varēs darīt?

Avoti

  • Datortehnika un intelekts
  • Loebnera balva par mākslīgo intelektu “Pirmais Tjinga tests” 2010. gada konkursā
  • “Līdz 2029.gadam neviens dators – vai” mašīnu intelekts “- nebūs izturējis Tjūringa testu.”
  • Chatterbox izaicinājums
  • Lēnera balva par mākslīgo intelektu
  • 2014. gada Loebnera balva par mākslīgo intelektu
  • 10 triki, kurus tērzēšanas roboti izmanto, lai liktu jums noticēt, ka viņi ir cilvēki
  • Tirgotāji viltojuši SXSW Tinder lietotājus ar tērzētavu
  • Evija un Boibots
  • Briesmas! Robots Vatsons
  • Elīza ģenealoģija
  • Parīzes lapa
  • Kad PARRY met ELIZA: smieklīga Chatbot saruna no 1972. gada
  • Izsmalcināts tērzēšanas robots pozē kā pusaudžu meitene, lai vilinātu pedofilus
  • “No mazuļu mutes”: kurš ir atbildīgs par to, ko tiešsaistē saka robotprogrammatūra?
  • Nejauši ģenerēts tvīts ar botu pamudina Nīderlandes policiju veikt izmeklēšanu
  • Džefrijs van der Gots
  • Pēc tam, kad Twitter robots rada nāves draudus, tā īpašnieku nopratina policija
  • Viss, ko mēs zinām par ASV armijas “Uncanny Chatbots”
  • Kā Cleverbot dators tērzē kā cilvēks
  • Pārskats: Bot trafiks ir līdz 61,5% no visas vietnes trafika
  • Kā jūs varat uzzināt, vai jūs čatojat ar robotprogrammatūru??
  • Kā jūs varat pateikt, vai jūsu tērzēšanas draugs tiešām ir mašīna?
  • Kāds atsevišķs jautājums var palīdzēt atšķirt tērzēšanas robotu no cilvēka?
  • Bils Geitss, tāpat kā Stefans Hokings un Elons Musks, uztraucas par to, ka mākslīgais intelekts ir drauds

Tērzētavas nav tik cilvēciskas kā lietās, kuras mēs redzam filmās, bet labākie bieži mānina cilvēkus domāt, ka viņi ir cilvēki.

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me
    Like this post? Please share to your friends:
    Adblock
    detector
    map