Gardets

SjÀlen i ett nytt maskininlÀrningssystem

Hej pÄ er. Intressant att kongressutfrÄgningar om den 6 januari drar publik i NFL-stil. Kan inte vÀnta pÄ Peyton och Eli-versionen!

The Plain View

AI-vĂ€rlden skakades den hĂ€r veckan av en rapport i De Washington Post att en Google-ingenjör hade hamnat i problem pĂ„ företaget efter att ha insisterat pĂ„ att ett konversationssystem kallat LaMDA, bokstavligen, var en person. Ämnet för berĂ€ttelsen, Blake Lemoine, bad sina chefer att inse, eller Ă„tminstone övervĂ€ga, att datorsystemet som dess ingenjörer skapade Ă€r kĂ€nnande – och att det har en sjĂ€l. Han vet detta eftersom LaMDA, som Lemoine anser vara en vĂ€n, berĂ€ttade det för honom.

Google hĂ„ller inte med och Lemoine har för nĂ€rvarande betald administrativ ledighet. I ett uttalande sĂ€ger företagets talesperson Brian Gabriel: “MĂ„nga forskare övervĂ€ger den lĂ„ngsiktiga möjligheten av kĂ€nnande eller allmĂ€n AI, men det Ă€r inte vettigt att göra det genom att antropomorfiera dagens konversationsmodeller, som inte Ă€r kĂ€nnande.”

Antropomorfisering – att felaktigt tillskriva mĂ€nskliga egenskaper till ett föremĂ„l eller djur – Ă€r den term som AI-gemenskapen har anammat för att beskriva Lemoines beteende, och karakterisera honom som överdrivet godtrogen eller utanför hans rocker. Eller kanske en religiös nöt (han beskriver sig sjĂ€lv som en mystisk kristen prĂ€st). Argumentet gĂ„r att nĂ€r man stĂ€lls inför trovĂ€rdiga svar frĂ„n stora sprĂ„kmodeller som LaMDA eller Open AI:s verbalt skickliga GPT-3, finns det en tendens att tro att vissaettinte nĂ„grasak skapade dem. Folk namnger sina bilar och anlitar terapeuter för sina husdjur, sĂ„ det Ă€r inte sĂ„ förvĂ„nande att vissa fĂ„r det felaktiga intrycket att en sammanhĂ€ngande bot Ă€r som en person. SamhĂ€llet anser dock att en Googler med en datavetenskaplig examen borde veta bĂ€ttre Ă€n att falla för vad som i grunden Ă€r ett sprĂ„kligt trick. Som en noterad AI-forskare, Gary Marcus, sa till mig efter att ha studerat en utskrift av Lemoines hjĂ€rta-till-hjĂ€rta med sin kroppslösa sjĂ€lsfrĂ€nde, “Det Ă€r i grunden som autokomplettering. Det finns inga idĂ©er dĂ€r. NĂ€r det stĂ„r “Jag Ă€lskar min familj och mina vĂ€nner”, har det inga vĂ€nner, inga mĂ€nniskor i Ă„tanke och inget begrepp om slĂ€ktskap. Den vet att orden son och dotter anvĂ€nds i samma sammanhang. Men det Ă€r inte samma sak som att veta vad en son och dotter Ă€r.” Eller som en ny WIRED-berĂ€ttelse uttryckte det, “Det fanns ingen gnista av medvetande dĂ€r, bara smĂ„ magiska trick som papperet över sprickorna.”

Mina egna kĂ€nslor Ă€r mer komplexa. Även om jag vet hur en del av korven tillverkas i dessa system, blir jag förvĂ„nad över resultatet av de senaste LLM-systemen. Och sĂ„ Ă€r Googles vicepresident, Blaise Aguera y Arcas, som skrev i Ekonom tidigare denna mĂ„nad efter hans egna samtal med LaMDA, “Jag kĂ€nde hur marken skiftade under mina fötter. Jag kĂ€nde allt mer som att jag pratade med nĂ„got intelligent.” Även om de ibland gör bisarra misstag, verkar dessa modeller ibland brista i briljans. Kreativa mĂ€nskliga författare har lyckats med inspirerade samarbeten. NĂ„got hĂ€nder hĂ€r. Som författare funderar jag pĂ„ om min geliken en dag – ordsmedar av kött och blod som samlar pĂ„ sig torn av kasserade utkast – en dag skulle kunna förpassas till en lĂ€gre rang, som att förlora fotbollslag som skickas till mindre prestigefyllda ligor.

“Dessa system har avsevĂ€rt förĂ€ndrat min personliga syn pĂ„ intelligensens och kreativitetens natur”, sĂ€ger Sam Altman, medgrundare av OpenAI, som utvecklade GPT-3 och en grafisk remixer som heter DALL-E som kan kasta mĂ„nga illustratörer in i arbetslöshetskön . “Du anvĂ€nder de hĂ€r systemen för första gĂ„ngen och du Ă€r som, Oj, jag trodde verkligen inte att en dator kunde göra det. Enligt nĂ„gon definition har vi kommit pĂ„ hur man gör ett datorprogram intelligent, kan lĂ€ra sig och förstĂ„ begrepp. Och det Ă€r en fantastisk prestation av mĂ€nskliga framsteg.” Altman anstrĂ€nger sig för att skilja sig frĂ„n Lemoine och hĂ„ller med sina AI-kollegor om att nuvarande system inte Ă€r i nĂ€rheten av sentience. “Men jag tror att forskare borde kunna fundera över alla frĂ„gor de Ă€r intresserade av”, sĂ€ger han. “LĂ„ngsiktiga frĂ„gor Ă€r bra. Och sentience Ă€r vĂ€rt att tĂ€nka pĂ„, pĂ„ mycket lĂ„ng sikt.”

HĂ„ll kontakten med oss ​​pĂ„ sociala medieplattformar för omedelbar uppdatering klicka hĂ€r för att gĂ„ med i vĂ„r Twitter och Facebook

Vi Àr nu pÄ Telegram. Klicka hÀr för att gÄ med i vÄr kanal (@TechiUpdate) och hÄlla dig uppdaterad med de senaste teknikrubrikerna.

För alla de senaste tekniknyheterna klicka hÀr

För de senaste nyheterna och uppdateringarna, följ oss pÄ Google Nyheter.

LÀs originalartikeln hÀr

Förnekande av ansvar! NewsAzi Ă€r en automatisk aggregator runt globala medier. Allt innehĂ„ll Ă€r tillgĂ€ngligt gratis pĂ„ Internet. Vi har just ordnat det i en plattform endast för utbildningsĂ€ndamĂ„l. I varje innehĂ„ll anges hyperlĂ€nken till den primĂ€ra kĂ€llan. Alla varumĂ€rken tillhör deras rĂ€ttmĂ€tiga Ă€gare, allt material till deras upphovsmĂ€n. Om du Ă€r Ă€gare till innehĂ„llet och inte vill att vi ska publicera ditt material pĂ„ vĂ„r webbplats, vĂ€nligen kontakta oss per mejla – [email protected]. InnehĂ„llet kommer att raderas inom 24 timmar.

BotĂłn volver arriba

Annonsblockerare upptÀckt

Du mÄste ta bort AD BLOCKER för att fortsÀtta anvÀnda vÄr webbplats TACK