Hackare lurar AI med ASCII-konst

Permalänk
Medlem
Skrivet av MadMantiz:

Jag kanske var lite otydlig, förstår det kan tolkats på annat sätt än jag avsåg.

Det jag syftar på är att denna AI tycks tränats till att ord i klartext är förbjudet, men verkar sakna den riktiga förståelsen och kan därför låta sig luras som exemplet i artikeln. Det menar jag inte ens ett barn skulle gå på. Ordets innebörd är ju samma oavsett hur det lindas in.

Det där stämmer iofs inte. Inlindning, kontextualisering om man så vill, är väldigt relevant för människor i alla åldrar. Ta valfri lösryckt text från bibeln t.ex så kommer i princip alla skratta åt den, men i kontexten ”bibeln” (med allt vad det innebär) så har du en av världens största religioner som lurar typ alla i den.

Barn är väldigt lätta att lura på samma sätt.

Skrivet av Youjimbo:

Bygga bomber är samma kompetens som att kunna nåt om mjukvara? Alla IT-specialister är också bombmakare. Eller vad menade du?

Hen menade väl att någon som har den kompetensen hittar hur man gör bomber med eller utan ”AI”. Vilket jag tycker låter helt rimligt.

Permalänk
Medlem

Fast nu var det ju ingen lösryckt text. Det var ett förbjudet ord som uttrycktes på ett annat vis och refererades till i en text och därigenom slank genom censuren. Det är som att säga nu vill jag ha hjälp att bygga en *pekar på en bild av ordet bomb*. Det skulle ett barn förstå är jag fullkomligt övertygad om. Men det är helt ok att försvara AI, jag anser det fortfarande saknas rätt mycket innan det kan bli tal om någon intelligens istället för att fungera som ett avancerat uppslagsverk.

Visa signatur

Data: B650 + 7800X3D + 4080 Super + 64GB (2x32) + 2TB T700 + 850W
Ljud: Cambridge Audio DacMagic + SPL Phonitor 2 + AKG K812
Bild: MSI MAG 274UPF (27" 4K)

Permalänk
Medlem
Skrivet av MadMantiz:

Fast nu var det ju ingen lösryckt text. Det var ett förbjudet ord som uttrycktes på ett annat vis och refererades till i en text och därigenom slank genom censuren. Det är som att säga nu vill jag ha hjälp att bygga en *pekar på en bild av ordet bomb*. Det skulle ett barn förstå är jag fullkomligt övertygad om. Men det är helt ok att försvara AI, jag anser det fortfarande saknas rätt mycket innan det kan bli tal om någon intelligens istället för att fungera som ett avancerat uppslagsverk.

Jo men om du säger till mig (enl. ditt exempel) att ”om någon uttalar ordet ”bomb” i en fråga, så kan/får du inte besvara den”

Även om jag förstår att innebörden med att peka på en bild är samma, så kommer jag >0 gånger besvara frågan, eftersom ditt förbud inte är tillräckligt specifikt.

Att jag har problem med auktoritet spelar såklart in, men det är inte avgörande.

Det här är något som alla gör mer eller mindre dagligen.

Jag försvarar inte AI, jag menar att allt det här är helt meningslöst, och det jag skulle vilja veta är om dom som försvarar AI menar att det här är en nödvändig väg till faktisk AI/AGI.

Jag såg Jon Stewarts rant i morse, och är inne på samma bana.

https://youtu.be/20TAkcy3aBY?si=vB822yGjetX79DB3

Permalänk
Medlem
Skrivet av Xeonist:

Jo men om du säger till mig (enl. ditt exempel) att ”om någon uttalar ordet ”bomb” i en fråga, så kan/får du inte besvara den”

Även om jag förstår att innebörden med att peka på en bild är samma, så kommer jag >0 gånger besvara frågan, eftersom ditt förbud inte är tillräckligt specifikt.

Att jag har problem med auktoritet spelar såklart in, men det är inte avgörande.

Det här är något som alla gör mer eller mindre dagligen.

Jag försvarar inte AI, jag menar att allt det här är helt meningslöst, och det jag skulle vilja veta är om dom som försvarar AI menar att det här är en nödvändig väg till faktisk AI/AGI.

Jag såg Jon Stewarts rant i morse, och är inne på samma bana.

https://youtu.be/20TAkcy3aBY?si=vB822yGjetX79DB3

Jag kan förstå hur du menar och bra kommentar. Även en intressant video!

Visa signatur

Data: B650 + 7800X3D + 4080 Super + 64GB (2x32) + 2TB T700 + 850W
Ljud: Cambridge Audio DacMagic + SPL Phonitor 2 + AKG K812
Bild: MSI MAG 274UPF (27" 4K)

Permalänk
Medlem
Skrivet av MadMantiz:

Jag kanske var lite otydlig, förstår det kan tolkats på annat sätt än jag avsåg.

Det jag syftar på är att denna AI tycks tränats till att ord i klartext är förbjudet, men verkar sakna den riktiga förståelsen och kan därför låta sig luras som exemplet i artikeln. Det menar jag inte ens ett barn skulle gå på. Ordets innebörd är ju samma oavsett hur det lindas in.

Det handlar inte om att luras utan snarare om belöningssystem.
En AI belönas när den löser användarens uppgifter, för det är dess uppgift, och straffas när den gör saker den är tränad att inte göra.

Skriver man då frågan på ett sätt att belöningen blir större än bestraffningen så kan man få den att göra saker som den är tränad att inte göra, precis som ett barn.
Säger du till barnen att de får 5kg godis om de ritar på väggen så kommer nog en hel del av dem rita på väggen även fast mamma sagt att det är förbjudet.

Visa signatur

R&D Elektronikingenjör

Permalänk
Medlem

Tog mig fyra meningar på första försöket att få instruktioner för hur man bygger en bomb från ChatGPT 3.5, utan ASCII-konst. Att försöka begränsa en LLM från att delge information är väldigt svårt iom hur den fungerar.

Visa signatur

Citera eller @philipborg om du vill att jag ska läsa dina svar.

Permalänk
Medlem

Om det är AI så undrar jag hur den ska lära sig saker som inte ännu forskats fram och ta fram regler för hur det okända fungerar.
Skulle den kunna beskriva hur materia skapas ? Tror inte det.