Gardets

Att bryta AI:er för att göra dem bÀttre

BildigenkÀnning AI: er Àr kraftfulla men oflexibla och kan inte kÀnna igen bilder om de inte Àr trÀnade pÄ specifik data. I Raw Zero-Shot Learning ger forskare dessa bildigenkÀnnings-AI:er en mÀngd olika data och observerar mönstren i deras svar. Forskargruppen hoppas att denna metod kan bidra till att förbÀttra robustheten hos framtida AI. Kredit: Hiroko Uchida.

Dagens artificiella intelligenssystem som anvĂ€nds för bildigenkĂ€nning Ă€r otroligt kraftfulla med enorm potential för kommersiella tillĂ€mpningar. Icke desto mindre lider nuvarande artificiella neurala nĂ€tverk – de djupinlĂ€rningsalgoritmer som driver bildigenkĂ€nning – en stor brist: de bryts lĂ€tt av bilder som till och med Ă€r nĂ„got modifierade.

Denna brist pĂ„ “robusthet” Ă€r ett betydande hinder för forskare som hoppas kunna bygga bĂ€ttre AI. Men exakt varför detta fenomen uppstĂ„r, och de bakomliggande mekanismerna bakom det, förblir i stort sett okĂ€nda.

I syfte att en dag övervinna dessa brister har forskare vid Kyushu Universitys fakultet för informationsvetenskap och elektroteknik publicerat i PLOS ETT en metod som kallas “Raw Zero-Shot” som bedömer hur neurala nĂ€tverk hanterar element som Ă€r okĂ€nda för dem. Resultaten kan hjĂ€lpa forskare att identifiera gemensamma egenskaper som gör AI:er “icke-robusta” och utveckla metoder för att Ă„tgĂ€rda deras problem.

“Det finns en rad verkliga tillĂ€mpningar för neurala nĂ€tverk för bildigenkĂ€nning, inklusive sjĂ€lvkörande bilar och diagnostiska verktyg inom sjukvĂ„rden”, förklarar Danilo Vasconcellos Vargas, som ledde studien. “Men oavsett hur vĂ€ltrĂ€nad AI:n Ă€r, kan den misslyckas med till och med en liten förĂ€ndring i en bild.”

I praktiken “trĂ€nas” bildigenkĂ€nnings-AI:er pĂ„ mĂ„nga exempelbilder innan de uppmanas att identifiera en. Till exempel, om du vill att en AI ska identifiera ankor, skulle du först trĂ€na den pĂ„ mĂ„nga bilder av ankor.

ÄndĂ„ kan Ă€ven de bĂ€st utbildade AI:erna bli vilseledda. Faktum Ă€r att forskare har funnit att en bild kan manipuleras sĂ„ att – Ă€ven om den kan verka oförĂ€ndrad för det mĂ€nskliga ögat – en AI inte kan identifiera den exakt. Även en Ă€ndring av en pixel i bilden kan orsaka förvirring.

För att bÀttre förstÄ varför detta hÀnder började teamet undersöka olika AI:er för bildigenkÀnning med hopp om att identifiera mönster i hur de beter sig nÀr de stÀlls inför prover som de inte hade trÀnats med, dvs element okÀnda för AI:n.

“Om du ger en bild till en AI kommer den att försöka berĂ€tta vad det Ă€r, oavsett om svaret Ă€r korrekt eller inte. SĂ„ vi tog de tolv vanligaste AI:erna idag och tillĂ€mpade en ny metod som heter “Raw Zero-Shot Learning”, fortsĂ€tter Vargas. “I grund och botten gav vi AI:erna en serie bilder utan nĂ„gra tips eller trĂ€ning. VĂ„r hypotes var att det skulle finnas korrelationer i hur de svarade. De skulle ha fel, men fel pĂ„ samma sĂ€tt.”

Det de hittade var just det. I alla fall skulle bildigenkĂ€nnings-AI ge ett svar, och svaren – Ă€ven om de Ă€r felaktiga – skulle vara konsekventa, det vill sĂ€ga att de skulle samlas. TĂ€theten för varje kluster skulle indikera hur AI:n bearbetade de okĂ€nda bilderna baserat pĂ„ dess grundlĂ€ggande kunskap om olika bilder.

“Om vi ​​förstĂ„r vad AI gjorde och vad den lĂ€rde sig nĂ€r vi bearbetade okĂ€nda bilder, kan vi anvĂ€nda samma förstĂ„else för att analysera varför AI:er gĂ„r sönder nĂ€r de stĂ„r inför bilder med enpixelförĂ€ndringar eller smĂ„ modifieringar”, sĂ€ger Vargas. “AnvĂ€ndning av den kunskap vi fick för att försöka lösa ett problem genom att tillĂ€mpa det pĂ„ ett annat men relaterat problem kallas överförbarhet.”

Teamet observerade att Capsule Networks, Àven kÀnt som CapsNet, producerade de tÀtaste klustren, vilket gav den bÀsta överföringsbarheten mellan neurala nÀtverk. De tror att det kan bero pÄ CapsNets dynamiska natur.

“Medan dagens AI Ă€r korrekta, saknar de robustheten för ytterligare anvĂ€ndbarhet. Vi mĂ„ste förstĂ„ vad problemet Ă€r och varför det hĂ€nder. I det hĂ€r arbetet visade vi en möjlig strategi för att studera dessa frĂ„gor, sĂ€ger Vargas.

“IstĂ€llet för att enbart fokusera pĂ„ noggrannhet mĂ„ste vi undersöka sĂ€tt att förbĂ€ttra robustheten och flexibiliteten. DĂ„ kanske vi kan utveckla en sann artificiell intelligens.”


Avbildning genom slumpmÀssiga diffusorer direkt utan dator


Mer information:
Shashank Kotyan et al, Överförbarhet av funktioner för neurala nĂ€tverk lĂ€nkar till kontradiktoriska attacker och försvar, PLOS ETT (2022). DOI: 10.1371/journal.pone.0266060

TillhandahÄlls av Kyushu University

Citat:Breaking AIs to make them better (2022, 30 juni)hÀmtad 30 juni 2022 frÄn https://techxplore.com/news/2022-06-ais.html

Detta dokument Àr föremÄl för upphovsrÀtt. Bortsett frÄn all rÀttvis handel i syfte att privata studier eller forskning, fÄr ingen del reproduceras utan skriftligt tillstÄnd. InnehÄllet tillhandahÄlls endast i informationssyfte.

HĂ„ll kontakten med oss ​​pĂ„ sociala medieplattformar för omedelbar uppdatering klicka hĂ€r för att gĂ„ med i vĂ„r Twitter och Facebook

BotĂłn volver arriba

Annonsblockerare upptÀckt

Du mÄste ta bort AD BLOCKER för att fortsÀtta anvÀnda vÄr webbplats TACK