MÀnniskor Àr inte de bÀsta domarna av medvetandet pÄ grund av deras tendens att tilldela icke-mÀnskliga varelser mÀnskliga egenskaper. Kredit: Shutterstock
En uppsjö av aktivitet intrĂ€ffade pĂ„ sociala medier efter att Blake Lemoine, en Google-utvecklare, fick tjĂ€nstledigt för att pĂ„stĂ„ att LaMDA, en chatbot, hade blivit kĂ€nnande â med andra ord, hade fĂ„tt förmĂ„gan att uppleva kĂ€nslor. Till stöd för sitt pĂ„stĂ„ende postade Lemoine utdrag frĂ„n ett utbyte med LaMDA, som svarade pĂ„ frĂ„gor genom att sĂ€ga, “medveten om min existens, jag vill lĂ€ra mig mer om vĂ€rlden, och jag kĂ€nner mig glad eller ledsen ibland.” Den uppgav ocksĂ„ att den har samma “önskningar och behov som mĂ€nniskor.”
Det kan tyckas vara ett trivialt utbyte och knappast vĂ€rt ansprĂ„ket pĂ„ kĂ€nsla, Ă€ven om det Ă€r sĂ„ visas mer realistiska Ă€n tidiga försök. Till och med Lemoines bevis pĂ„ utbytet redigerades frĂ„n flera chattsessioner. ĂndĂ„ Ă€r samtalets dynamiska och flytande karaktĂ€r imponerande.
Innan vi börjar skapa en rÀttighetsförklaring för artificiell intelligens mÄste vi tÀnka pÄ hur mÀnskliga erfarenheter och fördomar kan pÄverka vÄrt förtroende för artificiell intelligens (AI).
Att producera det konstgjorda
Inom populÀrvetenskap har AI blivit en övergripande term som ofta anvÀnds utan större eftertanke. Artificalitet betonar den icke-biologiska naturen hos dessa system och den abstrakta karaktÀren hos koden, sÄvÀl som icke-mÀnskliga vÀgar för lÀrande, beslutsfattande och beteende.
Genom att fokusera pÄ konstgjordhet kan de uppenbara fakta att AI skapas av mÀnniskor och fattar eller hjÀlper till med beslut för mÀnniskor förbises. Resultaten av dessa beslut kan ha en följdeffekt pÄ mÀnniskor som att bedöma kreditvÀrdighet, hitta och vÀlja kompisar eller till och med faststÀlla potentiell brottslighet.
Chatbots â bra sĂ„dana â Ă€r designade för att simulera sociala interaktioner mellan mĂ€nniskor. Chatbots har blivit ett alltför vĂ€lbekant inslag i kundtjĂ€nst online. Om en kund bara behöver ett förutsĂ€gbart svar, skulle de sannolikt inte veta att de interagerade med en AI.
Funktioner av komplexitet
Skillnaden mellan enkla chatbotar för kundtjÀnst och mer sofistikerade typer som LaMDA Àr en funktion av komplexiteten i bÄde datasetet som anvÀnds för att trÀna AI:n och reglerna som styr utbytet.
Intelligens speglar flera förmĂ„gor â det finns domĂ€nspecifika och domĂ€ngenerella former av intelligens. DomĂ€nspecifik intelligens inkluderar uppgifter som att cykla, utföra operationer, namnge fĂ„glar eller spela schack. DomĂ€ngenerell intelligens inkluderar allmĂ€nna fĂ€rdigheter som kreativitet, resonemang och problemlösning.
Programmerare har kommit lÄngt med att designa AI:er som kan demonstrera domÀnspecifik intelligens i aktiviteter som strÀcker sig frÄn att utföra onlinesökningar och spela schack, till att kÀnna igen föremÄl och diagnostisera medicinska tillstÄnd: om vi kan bestÀmma reglerna som styr mÀnskligt tÀnkande, kan vi sedan lÀra ut AI dessa regler.
AllmĂ€n intelligens – vad mĂ„nga ser som i huvudsak mĂ€nskligt – Ă€r en mycket mer komplicerad förmĂ„ga. Hos mĂ€nniskor Ă€r det sannolikt beroende av sammanflödet av olika typer av kunskaper och fĂ€rdigheter. Funktioner som sprĂ„k ger sĂ€rskilt anvĂ€ndbara verktyg, vilket ger mĂ€nniskor möjligheten att komma ihĂ„g och kombinera information över olika domĂ€ner.
SÄledes, Àven om utvecklare ofta har varit hoppfulla om utsikterna för mÀnsklig artificiell allmÀn intelligens, har dessa förhoppningar Ànnu inte realiserats.
TÀnk pÄ AI
PÄstÄenden om att en AI kan vara medveten innebÀr utmaningar utöver den allmÀnna intelligensen. Filosofer har lÀnge pÄpekat att vi har svÄrt att förstÄ andras mentala tillstÄnd, Àn mindre att förstÄ vad som utgör medvetande hos icke-mÀnskliga djur.
För att förstÄ pÄstÄenden om kÀnslor mÄste vi titta pÄ hur mÀnniskor dömer andra. Vi tillskriver ofta andra handlingar felaktigt och antar ofta att de delar vÄra vÀrderingar och preferenser. Psykologer har observerat att barn mÄste lÀra sig om andras mentala tillstÄnd och att att ha fler modeller eller att vara inbÀddade i mer kollektivistiska kulturer kan förbÀttra deras förmÄga att förstÄ andra.
NĂ€r man bedömer intelligensen hos en AI Ă€r det mer sannolikt att mĂ€nniskor antropomorfiserar Ă€n att AI:er faktiskt Ă€r kĂ€nnande. Mycket av detta har att göra med förtrogenhet â genom att öka vĂ„r exponering för föremĂ„l eller mĂ€nniskor kan vi öka vĂ„r preferens för dem.
PÄstÄendena om kÀnslomÀssighet frÄn sÄdana som Lemoine bör tolkas i detta ljus.
Kan vi lita pÄ AI?
Turingtestet kan anvĂ€ndas för att avgöra om en maskin kan tĂ€nka pĂ„ ett sĂ€tt som inte kan skiljas frĂ„n en person. Ăven om LaMDA-svar verkligen Ă€r mĂ€nskliga, innebĂ€r detta att det Ă€r bĂ€ttre pĂ„ att lĂ€ra sig mönster. Mening krĂ€vs inte.
Bara för att nÄgon litar pÄ en chatbot betyder det inte att tillit Àr berÀttigat. IstÀllet för att fokusera pÄ den mycket spekulativa karaktÀren av AI-kÀnsla, mÄste vi istÀllet fokusera vÄra anstrÀngningar pÄ att hantera sociala och etiska frÄgor som pÄverkar mÀnniskor.
Vi stÄr inför digitala klyftor mellan de som har och de som inte har och obalanser i makt och distribution i skapandet av dessa system.
System mĂ„ste vara transparenta och förklarliga sĂ„ att anvĂ€ndarna kan bestĂ€mma sig. Förklarlighet krĂ€ver att individer, regeringar och den privata sektorn arbetar tillsammans för att förstĂ„ â och reglera â artificiell intelligens och dess tillĂ€mpning.
Vi mÄste ocksÄ vara medvetna om att vÄr mÀnskliga tendens att antropomorfisera lÀtt kan utnyttjas av designers. Alternativt kan vi förkasta anvÀndbara produkter av AI som inte blir mÀnskliga. I vÄr tid av förveckling mÄste vi vara kritiska till vem och vad vi litar pÄ.
Bör vi vara oroliga för att Google AI Àr uppmÀrksam?
TillhandahÄlls av The Conversation
Den hÀr artikeln Àr Äterpublicerad frÄn The Conversation under en Creative Commons-licens. LÀs originalartikeln.
Citat:IstÀllet för att fokusera pÄ de spekulativa rÀttigheterna för kÀnnande AI mÄste vi ta itu med mÀnskliga rÀttigheter (2022, 30 juni) hÀmtad 30 juni 2022 frÄn https://techxplore.com/news/2022-06-focus-speculative-rights-sentient- ai.html
Detta dokument Àr föremÄl för upphovsrÀtt. Bortsett frÄn all rÀttvis handel i syfte att privata studier eller forskning, fÄr ingen del reproduceras utan skriftligt tillstÄnd. InnehÄllet tillhandahÄlls endast i informationssyfte.
HĂ„ll kontakten med oss ââpĂ„ sociala medieplattformar för omedelbar uppdatering klicka hĂ€r för att gĂ„ med i vĂ„r Twitter och Facebook