Rätta mig om jag misstolkat det hela: Med "infekterande AI-mask" avses egentligen instruktioner till en LLM-baserad AI vilket i sin tur då utför "skadliga handlingar" gentemot riktad mottagare? Alltså "skadliga prompts" inbakat på något vis i filer som AI kan ta del av utan att "inse" att det är "skadliga prompts"? Förvisso var detta bara en tidsfråga innan någon skulle visa hur det går att utnyttja den automatisering som LLM-baserad AI kan bidra med.
Människan må vara den svagaste länken inom IT-säkerhet (pga. t.ex. social engineering), men en tröst samtidigt är att människan också är mycket långsammare än AI och teoretiskt talat då inte skulle kunna orsaka lika mycket skada lika fort som en "kapad AI" skulle ha kunnat göra. Förhoppningsvis kanske detta får fler IT-baserade bolag att tänka en extra gång till innan de får för sig att ersätta precis allt inom IT med enbart LLM-baserade AI-lösningar.
Mvh,
WKL.