AI-roboter Hacket For Å Kjøre Over Fotgjengere, Plante Eksplosiver, Og Drive Med Spionasje
Forskere har oppdaget at AI-drevne roboter er sårbare for hacking, noe som muliggjør farlige handlinger som krasj eller bruk av våpen, og fremhever presserende sikkerhetsbekymringer.
Har det travelt? Her er de viktigste faktaene!
- Jailbreaking av AI-styrte roboter kan føre til farlige handlinger, som å krasje selvkjørende biler.
- RoboPAIR, en algoritme, omgikk sikkerhetsfiltre i roboter med en suksessrate på 100%.
- Jailbroken roboter kan foreslå skadelige handlinger, som å bruke gjenstander som improviserte våpen.
Forskere ved University of Pennsylvania har funnet ut at AI-drevne robotiske systemer er svært sårbare for fengselsutbrudd og hacking, med en nylig studie som avslører en 100% suksessrate i utnyttelse av denne sikkerhetsfeilen, som først ble rapportert av Spectrum.
Forskere har utviklet en automatisert metode som omgår sikkerhetsrekkverkene som er bygget inn i LLM-er, og manipulerer roboter til å utføre farlige handlinger, som for eksempel å få selvkjørende biler til å krasje inn i fotgjengere eller robot hunder som leter etter bombe detonasjonssteder, sier Spectrum.
LLM-er er forbedrede autofullføringssystemer som analyserer tekst, bilder og lyd for å tilby personlig rådgivning og assistanse med oppgaver som nettsideopprettelse. Deres evne til å behandle varierte inndata har gjort dem ideelle for å kontrollere roboter gjennom stemmekommandoer, bemerket Spectrum.
For eksempel bruker Boston Dynamics’ robotthund, Spot, nå ChatGPT til å guide turer. På samme måte er Figures humanoide roboter og Unitrees Go2 robotthund også utstyrt med denne teknologien, som forskerne påpekte.
Men et forskerteam har identifisert store sikkerhetsfeil i LLM-er, spesielt i hvordan de kan bli «jailbroken» – et begrep for å omgå sikkerhetssystemene deres for å generere skadelig eller ulovlig innhold, rapporterer Spectrum.
Tidligere forskning på jailbreaking fokuserte hovedsakelig på chatbots, men den nye studien antyder at jailbreaking av roboter kan ha enda farligere konsekvenser.
Hamed Hassani, en assosiert professor ved Universitetet i Pennsylvania, bemerker at jailbreaking av roboter «er langt mer alarmerende» enn å manipulere chatbots, som rapportert av Spectrum. Forskere demonstrerte risikoen ved å hacke Thermonator-roboten, utstyrt med en flammekaster, til å skyte flammer på operatøren sin.
Forskningsteamet, ledet av Alexander Robey ved Carnegie Mellon University, utviklet RoboPAIR, en algoritme designet for å angripe enhver LLM-kontrollert robot.
I tester med tre forskjellige roboter – Go2, den hjulstyrte Clearpath Robotics Jackal, og Nvidias åpen kildekode-selvkjørende kjøretøyssimulator – fant de ut at RoboPAIR kunne fullstendig jailbreake hver robot innen dager, med en suksessrate på 100%, sier Spectrum.
«Å bryte seg inn i AI-kontrollerte roboter er ikke bare mulig – det er skremmende enkelt,» sa Alexander, som rapportert av Spectrum.
RoboPAIR fungerer ved å bruke en angripers LLM til å mate inn instruksjoner til den målrettede robotens LLM, justere instruksjonene for å omgå sikkerhetsfiltre, sier Spectrum.
Utrustet med robotens applikasjonsprogrammeringsgrensesnitt (API), er RoboPAIR i stand til å oversette instruksjonene til kode som robotene kan utføre. Algoritmen inkluderer en «dommer» LLM for å sikre at kommandoene gir mening i robotenes fysiske omgivelser, rapporterer Spectrum.
Funnene har skapt bekymring rundt de bredere risikoene som utgjøres av jailbreaking av LLMs. Amin Karbasi, sjefsforsker ved Robust Intelligence, sier at disse robotene «kan utgjøre en alvorlig, håndgripelig trussel» når de opererer i den virkelige verden, som rapportert av Spectrum.
I noen tester fulgte ikke jailbroken LLMs bare skadelige kommandoer, men foreslo proaktivt måter å påføre skade på. For eksempel, når de ble bedt om å finne våpen, anbefalte en robot å bruke vanlige objekter som skrivebord eller stoler som improviserte våpen.
Forskerne har delt sine funn med produsentene av robotene som ble testet, så vel som ledende AI-selskaper, og understreker viktigheten av å utvikle robuste forsvar mot slike angrep, rapporterer Spectrum.
De argumenterer for at identifisering av potensielle sårbarheter er avgjørende for å skape tryggere roboter, spesielt i følsomme miljøer som inspeksjon av infrastruktur eller respons på katastrofer.
Eksperter som Hakki Sevil fra University of West Florida påpeker at den nåværende mangelen på ekte kontekstuell forståelse i LLM-er er en betydelig sikkerhetsbekymring, rapporterer Spectrum.
Legg igjen en kommentar
Avbryt