Google zufolge nutzen mehrere staatlich geförderte Hackergruppen den KI-gestützten Assistenten Gemini, um ihre Produktivität zu steigern und mögliche Angriffsziele zu erforschen. Wie Bleeping Computer berichtet, hat Googles Threat Intelligence Group (GTIG) festgestellt, dass Hacker Gemini hauptsächlich einsetzen, um effizienter zu arbeiten, und nicht um neuartige KI-gestützte Cyberangriffe zu entwickeln, die traditionelle Abwehrmechanismen umgehen können.
Anzeige
Besonders aktiv waren laut Google APT-Gruppen aus dem Iran und China. Zu den häufigsten Anwendungsfällen zählten:
Unterstützung bei Programmieraufgaben für die Entwicklung von Tools und SkriptenRecherche zu öffentlich bekannten SicherheitslückenÜbersetzungen und Erklärungen zu TechnologienInformationssuche über ZielorganisationenSuche nach Methoden zur Umgehung von Erkennung, Rechteausweitung oder internen Erkundung in kompromittierten NetzwerkenDie Hacker setzten Gemini in verschiedenen Phasen des Angriffszyklus ein, wobei sich die Schwerpunkte je nach Herkunftsland unterschieden:
Iranische Akteure nutzten Gemini am intensivsten, unter anderem für Aufklärung, Phishing-Kampagnen und Einflussoperationen.Chinesische Gruppen konzentrierten sich auf US-Militär und -Regierungsorganisationen, Schwachstellenforschung, Skripte für laterale Bewegung und Rechteausweitung sowie Aktivitäten nach einer Kompromittierung.Nordkoreanische APTs unterstützten mit Gemini mehrere Phasen des Angriffszyklus, darunter Aufklärung, Malware-Entwicklung und Verschleierungstechniken. Ein Schwerpunkt lag auf Nordkoreas verdecktem IT-Arbeitsprogramm.Russische Akteure engagierten sich nur minimal, vor allem für Skript-Unterstützung, Übersetzung und Payload-Erstellung. Möglicherweise bevorzugen sie in Russland entwickelte KI-Modelle oder meiden westliche Plattformen aus Gründen der operativen Sicherheit.Google beobachtete auch Versuche, öffentliche Jailbreaks gegen Gemini einzusetzen oder Prompts umzuformulieren, um die Sicherheitsmaßnahmen der Plattform zu umgehen. Diese Versuche blieben bisher erfolglos.
Ähnliches hatte OpenAI, Entwickler des populären Chatbots ChatGPT, bereits im Oktober 2024 gemeldet. Mit zunehmender Verbreitung von Generativen KI-Systemen wächst die Gefahr des Missbrauchs, insbesondere bei Modellen mit unzureichenden Schutzmaßnahmen. Sicherheitsforscher konnten bereits bei einigen weit verbreiteten Systemen wie DeepSeek R1 und Alibabas Qwen 2.5 leicht zu umgehende Beschränkungen aufzeigen.
(
Kommentare