
Israel entwickelt ChatGPT-ähnliches Tool zur Überwachung von Palästinensern
Die israelische Armee baut ein KI-Sprachmodell auf der Grundlage von Millionen abgefangener Gespräche zwischen Palästinensern auf. Damit könnte sich der Prozess der Anklage und der Verhaftungen beschleunigen, wie eine gemeinsame Untersuchung zeigt.
von YUVAL ABRAHAM1, 6. März 2025
Die israelische Armee entwickelt ein neues, ChatGPT-ähnliches Werkzeug der künstlichen Intelligenz und trainiert es mit Millionen von Gesprächen in arabische Sprache, die durch die Überwachung von Palästinensern in den besetzten Gebieten gewonnen wurden. Dies geht aus einer Untersuchung des Magazins +972, Local Call und dem Guardian hervor.
Bei dem KI-Tool, das unter der Schirmherrschaft der Einheit 8200, einer Eliteeinheit für Cyber-Kriegsführung innerhalb des israelischen Militärgeheimdienstes, entwickelt wird, handelt es sich um ein so genanntes Large Language Model (LLM): ein Programm für maschinelles Lernen, das Informationen analysieren und Texte generieren, übersetzen, vorhersagen und zusammenfassen kann. Während öffentlich verfügbare LLM, wie die Maschine hinter ChatGPT, auf Informationen aus dem Internet trainiert werden, wird das neue Modell, das von der israelischen Armee entwickelt wird, mit riesigen Mengen von Informationen aus dem Alltag der unter der Besatzung lebenden Palästinenser gefüttert.
Die Existenz des LLM der Einheit 8200 wurde gegenüber +972, Local Call und dem Guardian von drei israelischen Sicherheitsquellen bestätigt, die mit der Entwicklung des Modells vertraut sind. Das Modell befand sich in der zweiten Hälfte des vergangenen Jahres noch in der Testphase, und es ist unklar, ob es bereits eingesetzt wurde oder wie genau die Armee es nutzen wird. Die Quellen erklärten jedoch, dass ein entscheidender Vorteil für die Armee in der Fähigkeit des Tools liege, grosse Mengen an Überwachungsmaterial schnell zu verarbeiten, um «Fragen» zu bestimmten Personen zu beantworten. Angesichts der Tatsache, dass die Armee bereits kleinere Sprachmodelle einsetzt, scheint es wahrscheinlich, dass das LLM die israelische Beschuldigung und Verhaftung von Palästinensern weiter ausweiten könnte.
«KI verstärkt die Fähigkeiten», erklärte eine Geheimdienstquelle, die die Entwicklung von Sprachmodellen durch die israelische Armee in den letzten Jahren genau verfolgt hat. «Sie ermöglicht Operationen, bei denen die Daten von viel mehr Menschen genutzt werden, was eine Kontrolle der Bevölkerung ermöglicht. Es geht nicht nur darum, Schiessereien zu verhindern. Ich kann Menschenrechtsaktivisten verfolgen. Ich kann palästinensische Bauvorhaben in Gebiet C [im Westjordanland] überwachen. Ich habe mehr Instrumente, um zu wissen, was jede Person im Westjordanland tut. Wenn man über so viele Daten verfügt, kann man sie für jeden beliebigen Zweck einsetzen.
Obwohl die Entwicklung des Tools vor dem aktuellen Krieg stattfand, zeigt unsere Untersuchung, dass die Einheit 8200 nach dem 7. Oktober die Unterstützung israelischer Bürger mit Fachkenntnissen in der Entwicklung von Sprachmodellen suchte, die bei Tech-Giganten wie Google, Meta und Microsoft arbeiteten. Mit der Massenmobilisierung von Reservisten zu Beginn des israelischen Angriffs auf den Gazastreifen begannen Branchenexperten aus der Privatwirtschaft, sich für die Einheit zu melden – und brachten Wissen mit, das zuvor «nur einer sehr exklusiven Gruppe von Unternehmen weltweit zugänglich war», wie eine Sicherheitsquelle erklärte. (Auf unsere Anfrage hin erklärte Google, dass es «Mitarbeiter hat, die in verschiedenen Ländern Reserve-Militärdienst leisten» und betonte, dass die Arbeit, die sie in diesem Zusammenhang leisten, «nicht mit Google in Verbindung steht». Meta und Microsoft lehnten eine Stellungnahme ab.)

Eine Sicherheitskamera mit Blick auf die Stadt Hebron im Westjordanland, 15. Januar 2013. (Nati Shohat/Flash90)
Einer Quelle zufolge wurde der Chatbot von Unit 8200 auf 100 Milliarden arabische Wörter trainiert, die zum Teil durch Israels gross angelegte Überwachung von Palästinensern unter der Herrschaft seines Militärs gewonnen wurden – was nach Ansicht von Experten eine schwere Verletzung palästinensischer Rechte darstellt. «Wir sprechen hier von sehr persönlichen Informationen, die von Menschen stammen, die keiner Straftat verdächtigt werden, um ein Werkzeug zu trainieren, das später helfen könnte, einen Verdacht zu begründen», sagte Zach Campbell, ein leitender Technologieforscher bei Human Rights Watch, gegenüber +972, Local Call und dem Guardian.
Nadim Nashif, Direktor und Gründer der palästinensischen Gruppe für digitale Rechte und Interessenvertretung 7amleh, schloss sich diesen Bedenken an. «Die Palästinenser sind zu Versuchsobjekten in Israels Labor geworden, um diese Techniken zu entwickeln und KI zu einer Waffe zu machen, alles mit dem Ziel, ein Apartheid- und Besatzungsregime aufrechtzuerhalten, in dem diese Technologien zur Beherrschung eines Volkes und zur Kontrolle seines Lebens eingesetzt werden. Dies ist eine schwerwiegende und kontinuierliche Verletzung der digitalen Rechte der Palästinenser; digitale Rechte sind Menschenrechte!»
«Wir werden alle Geheimdienstler durch KI-Agenten ersetzen»
Die Bemühungen der israelischen Armee, ein eigenes LLM zu entwickeln, wurden erstmals von Chaked Roger Joseph Sayedoff, einem Geheimdienstoffizier, der sich als Leiter des Projekts präsentierte, in einem wenig beachteten Vortrag im vergangenen Jahr öffentlich bestätigt. «Wir haben versucht, den grösstmöglichen Datensatz zu erstellen und alle Daten zu sammeln, die der Staat Israel jemals in arabischer Sprache hatte», erklärte er bei seinem Vortrag auf der DefenseML-Konferenz in Tel Aviv. Er fügte hinzu, dass das Programm auf «psychotische Mengen» von Geheimdienstinformationen trainiert wird.
Sayedoff zufolge hat die israelische Armee, als ChatGPT LLM im November 2022 erstmals der Öffentlichkeit zugänglich gemacht wurde, ein spezielles Geheimdienstteam eingerichtet, das untersuchen sollte, wie generative KI für militärische Zwecke angepasst werden könnte. «Wir sagten: ‹Wow, jetzt werden wir alle Geheimdienstler durch [KI-]Agenten ersetzen. Alle fünf Minuten werden sie alle israelischen Geheimdienstinformationen lesen und vorhersagen, wer der nächste Terrorist sein wird›», sagte Sayedoff.
Doch das Team konnte zunächst keine grossen Fortschritte erzielen. OpenAI, die Firma hinter ChatGPT, lehnte die Anfrage der Einheit 8200 nach direktem Zugang zu ihrem LLM ab und verweigerte die Integration in das interne, offline arbeitende System der Einheit. (Die israelische Armee hat seither das Sprachmodell von OpenAI genutzt, das über Microsoft Azure erworben wurde, wie +972 und Local Call in einer anderen kürzlich durchgeführten Untersuchung aufdeckten. OpenAI lehnte eine Stellungnahme für diese Geschichte ab.)
Und es gab noch ein weiteres Problem, erklärte Sayedoff: Bestehende Sprachmodelle konnten nur das Standard-Arabisch verarbeiten, das in der offiziellen Kommunikation, in der Literatur und in den Medien verwendet wird, nicht aber gesprochene Dialekte. Der israelische Militärgeheimdienst erkannte, dass er sein eigenes Programm entwickeln musste, das, wie Sayedoff in seinem Vortrag sagte, «auf den Dialekten basiert, die uns hassen».

Schatten von Überwachungskameras der Polizei in der Nähe des Jaffa-Tors in der Altstadt von Jerusalem, 30. Januar 2017. (Sebi Berens/Flash90)
Der Wendepunkt kam mit dem Ausbruch des Gaza-Krieges im Oktober 2023, als die Einheit 8200 begann, Experten für Sprachmodelle aus privaten Tech-Unternehmen als Reservisten zu rekrutieren. Ori Goshen, Co-CEO und Mitbegründer des israelischen Unternehmens AI21 Labs, das sich auf Sprachmodelle spezialisiert hat, bestätigte, dass Mitarbeiter von ihm während ihres Reservistendienstes an dem Projekt teilnahmen. «Eine Sicherheitsbehörde kann nicht mit einem Dienst wie ChatGPT arbeiten, also muss sie herausfinden, wie sie KI innerhalb eines [internen] Systems betreiben kann, das nicht mit anderen Netzwerken verbunden ist», erklärte er.
Laut Goshen könnten LLM den Geheimdiensten unter anderem die Möglichkeit bieten, Informationen schnell zu verarbeiten und Listen von «Verdächtigen» zu erstellen, die verhaftet werden können. Für ihn liegt der Schlüssel jedoch in der Fähigkeit, Daten abzurufen, die über mehrere Quellen verstreut sind. Anstatt «primitive Suchwerkzeuge» zu verwenden, könnten Beamte einfach «Fragen stellen und von einem Chatbot Antworten erhalten» – der zum Beispiel in der Lage wäre, zu sagen, ob sich zwei Personen jemals getroffen haben, oder sofort festzustellen, ob eine Person jemals eine bestimmte Tat begangen hat.
Goshen räumte jedoch ein, dass ein blindes Vertrauen in diese Tools zu Fehlern führen könnte. «Es handelt sich um probabilistische Modelle – man gibt ihnen eine Aufforderung oder eine Frage, und sie erzeugen etwas, das wie Magie aussieht», erklärte er. «Aber oft ergibt die Antwort keinen Sinn. Wir nennen das ‹Halluzination›.»
Campbell von Human Rights Watch äusserte eine ähnliche Besorgnis. LLM, so Campbell, funktionieren wie «Ratespielmaschinen», und ihre Fehler sind systemimmanent. Ausserdem sind die Menschen, die diese Instrumente benutzen, oft nicht diejenigen, die sie entwickelt haben, und Untersuchungen zeigen, dass sie dazu neigen, ihnen mehr zu vertrauen. «Letztendlich könnten diese Einschätzungen dazu verwendet werden, Menschen zu belasten», sagte er.
Frühere Untersuchungen von +972 und Local Call über den Einsatz von KI-basierten Zielsystemen durch die israelische Armee zur Erleichterung der Bombardierung des Gazastreifens haben die operationellen Mängel solcher Tools aufgezeigt. So hat die Armee beispielsweise ein als Lavender bekanntes Programm verwendet, um eine «Tötungsliste» mit Zehntausenden von Palästinensern zu erstellen, die die KI aufgrund von Merkmalen, die sie mit der Zugehörigkeit zu einer militanten Gruppe in Verbindung bringen sollte, belastete.
Die Armee bombardierte dann viele dieser Personen – in der Regel, wenn sie sich zu Hause bei ihren Familien aufhielten –, obwohl das Programm bekanntermassen eine Fehlerquote von 10 Prozent aufwies. Quellen zufolge diente die menschliche Aufsicht über den Ermordungsprozess lediglich als «Stempel», und die Soldaten behandelten die Ergebnisse von Lavender, «als wäre es eine menschliche Entscheidung».

Palästinenser passieren den Qalandiya-Kontrollpunkt auf dem Weg vom Westjordanland zum vierten Freitagsgebet des Ramadan in der Al-Aqsa-Moschee, 29. April 2022. (Oren Ziv)
«Manchmal ist es nur ein Divisionskommandeur, der 100 Verhaftungen pro Monat will»
Die Entwicklung eines ChatGPT-ähnlichen Werkzeugs, das auf gesprochenes Arabisch trainiert ist, stellt eine weitere Ausweitung des israelischen Überwachungsapparats in den besetzten Gebieten dar, der schon seit langem stark in die Privatsphäre eingreift. Vor mehr als einem Jahrzehnt sagten Soldaten, die in der Einheit 8200 dienten, aus, dass sie Zivilisten, die keine Verbindung zu militanten Gruppen hatten, überwacht hatten, um an Informationen zu gelangen, mit denen sie erpresst werden konnten – z. B. über finanzielle Notlagen, ihre sexuelle Orientierung oder eine schwere Krankheit, die sie oder ein Familienmitglied betrifft. Die ehemaligen Soldaten gaben auch zu, politische Aktivisten zu verfolgen.
Neben der Entwicklung eines eigenen LLM verwendet die Einheit 8200 bereits kleinere Sprachmodelle, die die Klassifizierung von Informationen, die Transkription und Übersetzung von Gesprächen aus dem gesprochenen Arabisch ins Hebräische sowie eine effiziente Stichwortsuche ermöglichen. Diese Werkzeuge machen nachrichtendienstliches Material unmittelbarer zugänglich, insbesondere für die Abteilung Judäa und Samaria (Westjordanland) der Armee. Zwei Quellen zufolge ermöglichen es die kleineren Modelle der Armee, Überwachungsmaterial zu sichten und Palästinenser zu identifizieren, die ihre Wut über die Besatzung oder den Wunsch, israelische Soldaten oder Siedler anzugreifen, zum Ausdruck bringen.
Eine Quelle beschrieb ein derzeit verwendetes Sprachmodell, das Daten scannt und Palästinenser identifiziert, die Wörter verwenden, die auf «Unruhe stiften» hinweisen. Die Quelle fügte hinzu, dass die Armee Sprachmodelle verwendet hat, um vorherzusagen, wer bei Operationen zur «Demonstration von Präsenz» Steine auf Soldaten werfen könnte – wenn Soldaten eine Stadt oder ein Dorf im Westjordanland überfallen und von Tür zu Tür gehen und in jedes Haus in einer bestimmten Strasse stürmen, um Verhaftungen durchzuführen und die Bewohner einzuschüchtern.
Nachrichtendienstlichen Quellen zufolge hat der Einsatz dieser Sprachmodelle zusammen mit der gross angelegten Überwachung in den besetzten Gebieten die Kontrolle Israels über die palästinensische Bevölkerung vertieft und die Häufigkeit der Verhaftungen deutlich erhöht. Die Befehlshaber können auf die ins Hebräische übersetzten Rohdaten zugreifen – ohne sich auf die Sprachzentren der Einheit 8200 verlassen zu müssen, die das Material zur Verfügung stellen, oder ohne selbst Arabisch zu können – und «Verdächtige» für die Verhaftung aus einer ständig wachsenden Liste in jeder palästinensischen Ortschaft auswählen. «Manchmal auch nur, weil ein Divisionskommandeur sich in seinem Gebiet 100 Verhaftungen pro Monat zum Ziel gesetzt hat», sagte eine Quelle.
Im Gegensatz zu den kleineren Modellen, die bereits im Einsatz sind, wird das grosse Modell, das derzeit entwickelt wird, jedoch mit dem Datensatz der Einheit 8200 trainiert, der Millionen von Gesprächen zwischen Palästinensern enthält. «Gesprochenes Arabisch ist ein Datensatz, der [kaum] im Internet verfügbar ist», erklärte die Quelle. «Es gibt keine Transkripte von Gesprächen oder WhatsApp-Chats online. Es gibt sie nicht in der Menge, die für das Training eines solchen Modells erforderlich ist.»
Für das Training des LLM sind alltägliche Unterhaltungen zwischen Palästinensern, die keinen unmittelbaren nachrichtendienstlichen Wert haben, dennoch von wesentlicher Bedeutung. «Wenn jemand eine andere Person [am Telefon] anruft und ihr sagt, sie solle nach draussen kommen, weil er vor der Schule auf sie warte – das ist nur ein beiläufiges Gespräch, es ist uninteressant», erklärte eine Sicherheitsquelle. «Aber für ein Modell wie dieses ist es Gold wert, weil es mehr und mehr Daten liefert, mit denen man trainieren kann.»

Ein israelischer Militärwachturm und Kameras über der Strasse 60 im besetzten Westjordanland, 30. Januar 2006. (Activestills)
Die Einheit 8200 ist nicht der einzige nationale Geheimdienst, der versucht, generative KI-Tools zu entwickeln. Die CIA hat ein ähnliches Tool wie ChatGPT entwickelt, um Open-Source-Informationen zu analysieren, und auch die britischen Geheimdienste entwickeln ihre eigenen LLM. Ehemalige britische und amerikanische Sicherheitsbeamte erklärten jedoch gegenüber +972, Local Call und dem Guardian, dass der israelische Geheimdienst bei der Integration von KI-Systemen in die Geheimdienstanalyse grössere Risiken eingeht als seine amerikanischen oder britischen Kollegen.
Brianna Rosen, eine ehemalige Sicherheitsbeauftragte des Weissen Hauses und derzeitige Forscherin für Militär- und Sicherheitsstudien an der Universität Oxford, erklärte, dass ein Geheimdienstanalyst, der ein Tool wie ChatGPT verwendet, potenziell in der Lage wäre, «Bedrohungen zu erkennen, die Menschen übersehen könnten, noch bevor sie entstehen». Es besteht jedoch auch das Risiko, dass «falsche Verbindungen und falsche Schlussfolgerungen gezogen werden. Es werden Fehler gemacht, und einige dieser Fehler können sehr schwerwiegende Folgen haben».
Israelische Geheimdienstquellen betonten, dass das Hauptproblem im Westjordanland nicht unbedingt die Genauigkeit dieser Modelle ist, sondern vielmehr der grosse Umfang der Verhaftungen, die sie ermöglichen. Die Listen der «Verdächtigen» werden ständig länger, da kontinuierlich grosse Mengen an Informationen gesammelt und mithilfe von KI schnell verarbeitet werden.
Mehrere Quellen gaben an, dass ein vager oder allgemeiner «Verdacht» oft ausreicht, um die Inhaftierung von Palästinensern in Verwaltungshaft zu rechtfertigen – eine verlängerbare Haftstrafe von sechs Monaten ohne Anklage oder Gerichtsverfahren auf der Grundlage nicht veröffentlichter «Beweise». In einem Umfeld, in dem die Überwachung von Palästinensern so umfangreich und die Schwelle für eine Verhaftung so niedrig ist, werde die Hinzunahme neuer KI-basierter Werkzeuge Israels Fähigkeit verbessern, belastende Informationen über viel mehr Menschen zu finden.
Der IDF-Sprecher ging auf spezifische Fragen von +972, Local Call und dem Guardian «aufgrund der sensiblen Natur der Informationen» nicht ein und versicherte nur, dass «jeder Einsatz von technologischen Werkzeugen in einem strengen, von Fachleuten geleiteten Prozess erfolgt, um die maximale Genauigkeit der nachrichtendienstlichen Informationen zu gewährleisten.»
___
1 Yuval Abraham ist ein Journalist und Filmemacher aus Jerusalem. Harry Davies vom Guardian und Sebastian Ben Daniel (John Brown) haben zu dieser Untersuchung beigetragen.
Quelle: 972+Magazine. Übersetzt mit DeepL.com (kostenlose Version).