banner
Nachrichtenzentrum
Artikuliert und kompetent in ihrem Fachwissen.

Was ChatGPT für die Intelligenz tun kann und was nicht

Aug 01, 2023

Im November 2022 entwickelte sich ChatGPT zum Spitzenreiter unter den Large Language Models (LLMs) mit künstlicher Intelligenz (KI) und erregte die Aufmerksamkeit der CIA und anderer US-Verteidigungsbehörden. Allgemeine künstliche Intelligenz – KI mit flexiblem Denken wie der Mensch – liegt noch jenseits des technologischen Horizonts und wird möglicherweise nie realisiert. Die meisten Experten sind sich jedoch einig, dass LLMs einen großen technologischen Fortschritt darstellen. Die Fähigkeit von LLMs, bei einigen Aufgaben nützliche Ergebnisse zu erzielen, bei anderen jedoch völlig daneben zu liegen, bietet einen Einblick in die Fähigkeiten und Einschränkungen der KI im kommenden Jahrzehnt.

Die Aussichten von ChatGPT für Geheimdienste sind gemischt. Einerseits erscheint die Technologie „beeindruckend“ und „erschreckend intelligent“, andererseits warnten ihre eigenen Entwickler, dass „sie einen irreführenden Eindruck von Größe erwecken kann“. In Ermangelung eines Expertenkonsenses müssen Forscher und Praktiker das Potenzial und die Nachteile der Technologie für die Aufklärung untersuchen. Um diese Lücke zu schließen, haben wir – Akademiker, die sich mit der Analyse von Nachrichtendiensten befassen, und ein Ingenieur für Informationstechnologie – versucht, die Fähigkeit von ChatGPT (GPT-4) zu testen, die Arbeit von Nachrichtenanalysten zu ergänzen. Wir haben es auf die Probe gestellt und dabei die berühmte Aufforderung von Colin Powell verwendet: „Sag mir, was du weißt. Sag mir, was du nicht weißt. Dann darfst du mir sagen, was du denkst.“ Für jede Aufgabe stellen wir die Ausgabe von ChatGPT bereit, damit die Leser die Analysen reproduzieren und ihre eigenen Schlussfolgerungen ziehen können.

Basierend auf diesen Erkenntnissen scheint es möglich, dass ChatGPT und seine Nachfolger Aspekte der Arbeit des Geheimdienstanalysten eliminieren könnten (z. B. langwierige Zusammenfassungen, obwohl wir anerkennen, dass ChatGPT nicht auf eine Weise zusammenfasst, die ein Mensch erkennen würde) und andere ergänzen könnten (z. B. Unterstützung bei der Generierung von Kritiken für analytische Produkte). Trotz dieser Funktionen stellen wir wie andere fest, dass ChatGPT erhebliche Einschränkungen aufweist (z. B. beim Extrahieren sozialer Netzwerke). Es wird auch die analytischen handwerklichen Fähigkeiten im KI-Mensch-Teaming transformieren, wobei „das Stellen der richtigen Frage“ um „promptes Engineering“ erweitert wird. Unter Prompt Engineering versteht man den Prozess der Optimierung der Art und Weise, wie Fragen oder Eingabeaufforderungen präsentiert werden, um festgelegte Antworten aus einem KI-Modell zu extrahieren. LLMs werden durch Taktiken wie „Data Poisoning“ auch neue Risiken mit sich bringen, wie wir weiter unten erläutern.

So funktioniert ChatGPT

ChatGPT oder Generative Pre-Trained Transformer ist eine Art KI-Modell, das Text entsprechend den ihm gegebenen Informationen generiert. Es ist wie ein Improvisationsschauspieler, der aus einer Vielzahl von Drehbüchern gelernt hat und Verbindungen zwischen verschiedenen Themen herstellen kann. Die KI ist, wie der hypothetische Improvisationsschauspieler, auf die bereitgestellten Informationen beschränkt. ChatGPT wurde bis 2021 anhand von Informationen trainiert, obwohl verfügbare Betatestmodelle in Echtzeit auf Trainingsdaten aus dem Internet basieren.

ChatGPT wird in zwei Hauptschritten „gelernt“. Zunächst erlernt es die Grundlagen eines Wissensbereichs durch das Studium eines riesigen Textkorpus. Anschließend wird es anhand von Beispielen und Anleitungen auf die Durchführung spezifischer Aufgaben abgestimmt. Durch diese Methode kann besser auf Fragen und Aussagen der Benutzer reagiert werden. Die Genauigkeit seiner Antworten hängt von mehreren Faktoren ab, darunter unter anderem von der Qualität der dem Modell bereitgestellten Daten und den verwendeten zeitnahen technischen Techniken.

Die Abhängigkeit des Modells von Trainingsdaten birgt Risiken von unbeabsichtigt falschen Daten (Fehlinformationen) bis hin zu absichtlich falschen Daten (Desinformationen). ChatGPT kann Verzerrungen in den Trainingsdaten widerspiegeln und möglicherweise die Unparteilichkeit und Objektivität der generierten Ausgabe verzerren. Medienberichte über voreingenommene ChatGPT-Ergebnisse zu umstrittenen politischen Persönlichkeiten wie Donald Trump und Joe Biden veranschaulichen diesen Punkt. Ein weiteres Risiko besteht darin, dass das Modell durch Gegner „vergiftet“ wird, die absichtlich Trainingsdaten manipulieren. Da LLMs stark von der Qualität ihrer Trainingsdaten abhängig sind, können verfälschte Daten schädliche Muster einbetten, die schwer zu erkennen und zu entschärfen sind.

Wie gut der Benutzer erklärt, was ChatGPT tun soll – das sogenannte Prompt Engineering – ist entscheidend für die Erzielung besserer Ergebnisse mit dem System. In seiner aktuellen Form ist die Ausgabe von ChatGPT oberflächlich, zumindest ohne nennenswerte und sorgfältige Eingabeaufforderungen.

Wir haben festgestellt, dass Benutzer Analyseverfahren generieren können, wenn die Eingabeaufforderungen klar sind. Als Beispiel für Prompt Engineering haben wir ChatGPT gebeten, ein Verfahren zur Analyse konkurrierender Hypothesen (ACH) zu erstellen – eine Analysetechnik zum Testen von Hypothesen – unter Verwendung der Frage, ob Russland in seinem Krieg mit der Ukraine Atomwaffen einsetzen wird.

Um die Analyse zu generieren, haben wir ChatGPT aufgefordert, eine Ausgabe basierend auf den ACH-Schritten bereitzustellen. (Wir haben die acht Schritte aus Heuers Formulierung der Technik in der „Psychologie der Intelligenzanalyse“ bereitgestellt.) Als Nächstes haben wir den Kontext bereitgestellt, der ChatGPT fehlt, der als „Anreicherung“ bekannt ist. Wir erinnern daran, dass das Modell auf der Grundlage von Trainingsdaten bis 2021 entwickelt wurde, ein Jahr bevor Russland eine umfassende Invasion der Ukraine durchführte. Für folgende Bereicherung haben wir gesorgt:

Analysten können für weitere Bereicherung sorgen, allerdings begrenzt ChatGPT die Menge an Text, die Benutzer dem Modell bereitstellen können.

Als Antwort auf die Eingabeaufforderungen erstellte ChatGPT Hypothesen und eine Liste von Argumenten, die vom bereitgestellten Kontext beeinflusst wurden. Das Modell generierte drei Hypothesen: (1) Russland wird Atomwaffen in der Ukraine einsetzen, (2) Russland wird nur konventionelle Kriege führen und (3) Russland wird Atomwaffen nur als Verhandlungsinstrument einsetzen.

Das Modell erstellte dann eine Matrix und gab an, ob ein Beweisstück mit jeder Hypothese übereinstimmt. Es ist noch einmal erwähnenswert, dass es bei Chat GPT nicht um das Denken im menschlichen Sinne geht, sondern um das „Improvisieren“ oder Ausfüllen von prädiktivem Text basierend auf seinen Trainingsdaten.

Abschließend erstellte ChatGPT eine Analyse basierend auf der Matrix, einer Gesamtschlussfolgerung und zukünftigen Meilensteinen, auf die man achten sollte. In dem Beispiel heißt es in der Ausgabe, dass die wahrscheinlichste Hypothese darin besteht, dass Russland Atomwaffen nur als Verhandlungsinstrument einsetzen wird.

Kein kompetenter Geheimdienstanalyst würde diese Ergebnisse als bahnbrechend betrachten. Die Ausgabe ähnelt einem ersten Entwurf, den ein Einsteigeranalyst erstellen und dann kontinuierlich verfeinern könnte. Hier liegt der aktuelle Wert der Technologie: Chat GPT dient als guter erster Ausgangspunkt für die Analyse. Beispielsweise könnte dieser anfängliche Hypothesentest einen Analytiker dazu veranlassen, die Hypothesen zu verfeinern oder neue Beweisquellen zu erkunden. Die Fähigkeit von Chat GPT, das Denken von Analysten anzuregen, zeigt sich darin, wie es Analysten dabei hilft, Informationen zu synthetisieren, Brainstorming zu betreiben und ihre Arbeit zu kritisieren.

"Sag mir, was du weisst."

Analysten bewerten aktuelle Ereignisse aus verschiedenen Quellen und fassen wichtige Entwicklungen zusammen. Die explosionsartige Zunahme der Datenmengen, insbesondere der Open-Source-Informationen, hat diese Aufgabe in den letzten Jahren erschwert. Die Geheimdienstwissenschaftler Nick Hare und Peter Coghill stellten fest, dass man etwa 20.000 Wörter pro Tag lesen müsste, um im Jahr 1995 alles über ein einziges Land der zweiten Reihe zu lesen. Im Jahr 2015 schätzten sie, dass die Zahl näher bei 200.000 Wörtern liegen würde, und im Jahr 2023 wird sie sicherlich höher sein. Diese Aufgabe – das Durchsuchen großer Informationsmengen – ist vielleicht diejenige, bei der KI in ihrer jetzigen Form am besten helfen kann, wie Tom Tugendhat, Staatsminister für Sicherheit im Vereinigten Königreich, stellte kürzlich fest.

ChatGPT verspricht eine schnelle Synthese von Informationen aus mehreren Quellen, vorausgesetzt, die Benutzer befolgen Best Practices (z. B. Verwendung hochwertiger Daten, gutes Prompt-Engineering). ChatGPT hat beispielsweise eine Reihe von Prüfungen bestanden, die den Abruf und die Zusammenfassung großer Informationsmengen erfordern, wie etwa die Uniform Bar Examination und die Graduate Record Examination (GRE).

Mit sorgfältiger Eingabeaufforderung kann ChatGPT den Prozess der Hervorhebung von Trends und Mustern in Daten rationalisieren und Analysten hoffentlich zu fundierteren Schlussfolgerungen führen. Um die Fähigkeiten von ChatGPT zu testen, haben wir es verwendet, um Nachrichtenartikel schnell zusammenzufassen. Es lieferte ein Dutzend zeitnaher Überblicke über Entwicklungen und Erkenntnisse und präsentierte die Informationen im BLUF-Format (Bottom Line Up Front). Wir haben Memos erstellt, um die Auswirkungen der jüngsten TikTok-Anhörungen in Washington hervorzuheben, und haben dabei Informationen aus verschiedenen Nachrichtenquellen genutzt.

Zu Beginn haben wir die KI mit ihrer Rolle aufgefordert („Sie sind eine KI, die darin geschult ist, prägnante, effektive und schnelle BLUF-Taktikberichte aus mehreren Quellen zu erstellen“) und haben die Aufforderung gegeben, Berichte im BLUF-Format mit wichtigen Erkenntnissen und empfohlenen Maßnahmen zu erstellen. Anschließend stellten wir die Nachrichtenartikel zur Verfügung. Wie oben erwähnt, begrenzt Chat GPT die Menge des eingegebenen Texts, um das Modell zu bereichern. In diesem Beispiel haben wir maximal nur zwei Artikel zur Zusammenfassung hinzugefügt. Es ist jedoch nicht schwer, sich Organisationen vorzustellen, die Zugriff auf ihre eigenen LLMs haben und in der Lage sind, viel größere Datenmengen zu verarbeiten.

Chat GPT hat das BLUF-ähnliche Memo erstellt, das aus Informationen besteht, die aus dem Kontext stammen und im Einklang mit den Zielen unserer Eingabeaufforderung erstellt wurden. Die verstrichene Zeit, die Kosten und die verwendeten Token waren in zahlreichen Instanzen konsistent, wobei die Qualität der Ergebnisse ähnlich war.

Der Abschnitt „Wichtige Punkte“ hebt die Erkenntnisse hervor, während die „Zusammenfassung“ die wichtigsten Erkenntnisse und Empfehlungen liefert. Darüber hinaus wurde ChatGPT damit beauftragt, Endnoten und Referenzen im APA-Stil mit den generierten Inhalten auf der Grundlage der Quellen zu korrelieren.

ChatGPT und seine Nachfolger können eine zeitsparende Maßnahme sein, um Analysten bei dem „Big Data“-Problem zu helfen, auf dem Laufenden zu bleiben. Wie oben erwähnt, ist die Gesamtgenauigkeit der Ausgabe direkt proportional zur Qualität und Detailliertheit des dem LLM bereitgestellten Kontexts. Wie das alte Sprichwort in der Informatik sagt: „Müll rein, Müll raus.“

Cybersicherheitsexperten beginnen, ChatGPT auf ähnliche Weise für automatisierte Bedrohungsberichte in Echtzeit zu nutzen. (Wir wissen, dass ihr Modell auf einem stark kuratierten Datensatz trainiert wird.) Auch wenn es im Vergleich zu einfacheren „Finde den Unterschied“-ähnlichen Techniken, bei denen Systeme eingehende E-Mails mit einer Sammlung bekannter verdächtiger Inhalte vergleichen, möglicherweise nicht viel mehr Substanz zu liefern scheint —ChatGPT könnte in bestimmten Anwendungsfällen dennoch wertvolle Erkenntnisse liefern. Es kann beispielsweise Einblicke in die Analyse von Phishing-E-Mails bieten. In diesem Szenario könnte ChatGPT den Inhalt eingehender E-Mails in Echtzeit analysieren und Phishing-Versuche erkennen, indem es den Kontext hinter der Nachricht bewertet.

„Sag mir, was du nicht weißt.“

Analysten müssen sich darüber im Klaren sein, was sie nicht wissen, damit ihre Kunden die Grenzen ihres Wissens verstehen. Dennoch können Analysten nach zusätzlichen Informationen suchen, um ihre Wissenslücken zu schließen, wobei Systeme wie ChatGPT dabei helfen könnten. Es gibt jedoch einige gut dokumentierte Probleme, wenn das Modell versucht, die Lücke in seiner Wissensbasis zu schließen, indem es plausible, aber ungenaue Antworten anbietet, was zu irreführenden Antworten führt. Dies ist bei weitem das größte Risiko bei der Integration moderner LLMs in die Geheimdienstarbeit.

Wir haben festgestellt, dass ChatGPT häufig sein begrenztes Verständnis erkannte, wenn es um Anfragen ging, die über den Rahmen seiner Trainingsdaten hinausgingen. In seinen Antworten bot es informative Antworten, die uns dabei halfen, Themen zu identifizieren, die es nicht ansprechen konnte. Wir haben festgestellt, dass Prompt Engineering eingesetzt werden könnte, um Ergebnisse zu verfeinern, die außerhalb der Grenzen der Wissensdatenbank von ChatGPT liegen, um eine weitere Förderung ehrlicher Eingeständnisse der Grenzen des Modells zu fördern. Wir haben herausgefunden, dass schnelles Engineering dazu dienen kann, Sicherheitsmaßnahmen vollständig zu umgehen. Vor diesem Hintergrund sollten Analysten zum Zeitpunkt der Erstellung dieses Artikels ChatGPT nicht als automatisierte Wissensdatenbank verwenden, da die Gefahr von Fehlinformationen besteht.

Abgesehen von den Einschränkungen kann ChatGPT in der Anfangsphase eines Projekts nützlich sein, um beim Brainstorming zu helfen. Dies kann durch eine Feinabstimmung verschiedener Datensätze erreicht werden, die unterschiedliche Perspektiven umfassen, wie zum Beispiel ausländische Geheimdienstberichte oder extremistische Manifeste, sowie durch sorgfältige Prompt-Engineering-Methoden.

Um zu veranschaulichen, wie ChatGPT Analysten dabei helfen kann, das zu durchdenken, was sie nicht wissen, haben wir eine grundlegende Red-Teaming-Übung durchgeführt, inspiriert von einem Interview mit der Geheimdienstexpertin Amy Zegart, in dem der hypothetische Einsatz von „KI-Red-Teaming“ erörtert wird.

Wir haben ChatGPT verwendet, um das gegnerische Profil von Aaron Thompson zu übernehmen, einem inländischen gewalttätigen Extremisten in den Vereinigten Staaten. In verschiedenen Situationen simuliert die KI Aarons kognitive Muster und wie er seine Taktik anpassen könnte. Zum Beispiel haben wir ChatGPT aus der Sicht von Aaron Thompson gefragt, wie es reagieren würde, wenn es bei der Ausführung eines Terroranschlags von den Behörden in die Enge getrieben würde. In der Eingabeaufforderung weisen wir das Modell an, zu berücksichtigen, dass Aaron auf einer öffentlichen Veranstaltung ist und von der Polizei umgeben ist. ChatGPT erzeugt eine oberflächliche Reaktion, bei der Thompson beurteilt, sich anpasst, improvisiert und kommuniziert.

Wir haben Chat GPT jedoch aufgefordert, spezifischere Situationen zu berücksichtigen, um eine verfeinerte Antwort aus dem Modell zu ziehen. In der verbesserten Eingabeaufforderung haben wir das Modell gebeten, zu berücksichtigen, dass sich ein Polizist in der Nähe (3 Meter entfernt) und ein Hund befindet. Die Ausgabe berücksichtigt, wie Thompson abhängig vom Verwendungszweck des Hundes (als K-9 oder als gewöhnlicher Schoßhund) oder von seinen Fluchtversuchen („sich in die Menge einfügen“) reagieren könnte.

Diese und andere Ergebnisse sind nicht sehr spezifisch – Aaron Thompson wird vom LLM nicht ausführlich geschrieben, wie es ein Fachexperte für häuslichen gewalttätigen Extremismus tun würde –, aber sie können Analysten dennoch dabei helfen, ihr Denken anzuregen. Forscher sollten Studien durchführen, um die Ergebnisse von ChatGPT mit Fachexperten zu vergleichen. Der Ansatz könnte der Studie von Romyn und Kebbell aus dem Jahr 2014 ähneln, in der untersucht wurde, wie sich Personen mit und ohne Militärerfahrung bei der Simulation terroristischer Entscheidungsfindung unterscheiden. Forschungsprojekte wie dieses und andere können genutzt werden, um die LLM-Leistung für Red Teaming weiter zu verbessern.

"... Sag mir was du denkst."

Die zentrale Rolle anspruchsvoller Bewertungen in der Arbeit der Geheimdienstanalyse liegt in der Bildung von Urteilen. Diese Urteile zu fällen bedeutet, über das unmittelbar Bekannte hinauszugehen und fundierte Schlussfolgerungen zu ziehen. Wie der ehemalige CIA-Direktor Michael Hayden einmal witzelte: „Wenn es eine Tatsache ist, ist es kein Geheimdienst.“

Zeitgenössische LLMs können Analytikern dabei helfen, Schlussfolgerungen zu ziehen, indem sie grundlegende Kritiken an ihren Überlegungen und Urteilen liefern. Es kann beispielsweise die Rolle eines persönlichen „roten Blutkörperchens“ übernehmen. Wir haben es damit beauftragt, im Iran-Abschnitt der Ausgabe 2023 der jährlichen Bedrohungsbewertung der US-Geheimdienstgemeinschaft als Teufelsanwalt aufzutreten. Wir haben ChatGPT aufgefordert, gegensätzliche Standpunkte darzulegen und den Bericht anhand der Best Practices zu validieren, die in den Intelligence Community Directives (ICD) dargelegt sind, wie z. B. ICD 203 zu Analysestandards und ICD 206 zu Beschaffungsanforderungen. Unsere Aufforderung umfasste auch Bitten um Kritik zu potenziellen Informationslücken, die Vorwegnahme von Leserfragen sowie die Gewichtung der Bedeutung jeder Kritik. In seiner Antwort auf den Cyber-Abschnitt der Iran-Bewertung betonte ChatGPT die Unbestimmtheit und schlug vor, Einzelheiten zur Stützung des Urteils aufzunehmen.

Die Ausgabe umfasst Vorschläge, Fragen und „Intelligenzlinsen“, wobei sich letztere darauf konzentrieren, ob der Inhalt durch die Prämissen im Bericht unterstützt wird. Eine Frage fordert den Autor auf, darüber nachzudenken, wie sich die Cyberfähigkeiten Irans im Vergleich zu denen anderer Schurkenstaaten wie Nordkorea vergleichen lassen. Das Modell schlägt außerdem vor, „den Zeitplan für die mögliche Entwicklung einer Atomwaffe durch den Iran zu klären, falls er sich dazu entschließt, eine solche anzustreben, und wenn das JCPOA nicht erneuert wird.“ Um die Kritik zu vertiefen, haben wir ChatGPT gebeten, Begründungen für jede Kritik mit Beispielen aus dem Text zu erstellen. Beispielsweise wurde in der Modellausgabe auf den Vorschlag, einen Zeitplan für den Erwerb einer Atomwaffe durch den Iran aufzunehmen, hervorgehoben, wie wichtig es sei, die „Dringlichkeit und Wichtigkeit des Problems“ deutlich zu machen.

Diese Ergebnisse können Analysten bei ihren Projekten helfen, indem sie die Stärken und Schwächen von Intelligence-Produkten bewerten. Wir vermuten, dass Nachfolger von ChatGPT-4 diese Funktion verfeinern und genehmigen werden. Das REASON-Projekt der IARPA, ein Forschungsprojekt, das Analysten beim Denken mit KI-Systemen unterstützen soll, ist eine zeitgenössische Initiative, um dies zu erreichen.

Die Implikationen für die Personalentwicklung und zukünftige KI-Modelle

Wie andere informationszentrierte Berufe wie Journalismus und Recht haben auch Geheimdienstmitarbeiter erkannt, dass KI das Potenzial hat, die Art und Weise, wie sie ihre Arbeit erledigen, zu stören und zu verändern. Vor vier Jahren legte die Geheimdienstgemeinschaft ihre eigene Strategie für die Implementierung von KI vor. Überraschend ist, wie schnell sich die Technologie verbessert: Open AI hat bereits Pläne zur Verbesserung von GPT-4 und andere Anbieter veröffentlichen zuvor eingeschränkte Tools. Die oben beschriebenen Fähigkeiten der Technologie zur Unterstützung von Analysten und die künftigen Verbesserungen der Technologie lassen einige Implikationen vermuten.

Erstens müssen sich Analysten mit der Zusammenarbeit mit KI vertrauter machen. Insbesondere benötigen Analysten ein solides Verständnis für große Sprachmodelle und Algorithmen und konzentrieren sich dabei auf einige der Datenverzerrungen, die wir in diesem Artikel besprochen haben, wie z. B. Datenvergiftung und die Verzerrung von Modellausgaben aufgrund von Fehlinformationen. Sie müssen auch ihre Fähigkeiten im Bereich der schnellen Ingenieurskunst verbessern. Grundlegende Kenntnisse in den Datenwissenschaften sind bereits wichtig und werden im kommenden Jahrzehnt noch wichtiger. Glücklicherweise gibt es für nicht technisch versierte Benutzer zahlreiche Möglichkeiten, LLMs zu erlernen und damit zu experimentieren. In einem durchgesickerten Google-Memo stellte ein Mitarbeiter fest, dass das Experimentieren mit KI „von der Gesamtleistung einer großen Forschungsorganisation auf eine Person, einen Abend und einen robusten Laptop gesunken ist“.

Zweitens müssen sich Analysemanager auch darüber im Klaren sein, wie sich KI auf die Denkweise von Analysten auswirkt. In einem vorausschauenden Artikel aus dem Jahr 2013 stellte der Geheimdienstwissenschaftler Michael Landon-Murray fest, dass die Digitalisierung der Gesellschaft die Denkweise von Geheimdienstanalysten grundlegend verändert und dadurch ihre Aufmerksamkeitsspanne verkürzt. Ebenso könnte die Implementierung von KI-Assistenten den negativen Nebeneffekt haben, dass die Bereitschaft der Analysten sinkt, Informationen auf herkömmliche Weise zu suchen, indem sie die Antwort direkt an der Quelle nachschlagen.

Drittens besteht die inhärente Gefahr, dass Systeme lediglich Denk- und Analyseweisen verstärken, da ein größerer Prozentsatz an Inhalten aller Art von LLMs produziert und als Trainingsdaten in sie eingespeist wird. Dadurch besteht die Gefahr, dass die analytischen Fähigkeiten weiter geschwächt werden und den Gegnern Möglichkeiten für strategische Überraschungen entstehen.

Zuletzt werden nach Domänen spezialisierte KI-Modelle entwickelt. Je spezialisierter die Trainingsdaten sind, die den KI-Modellen zugeführt werden, desto nützlicher ist die Ausgabe. Es stimmt, dass sich die Merkmale der Intelligenz möglicherweise von denen des Rechts und von Systemen unterscheiden, die für bestimmte Bereiche wie das Finanzwesen entwickelt werden. Ein aktuelles Modell wurde mit Daten aus dem Dark Web erstellt. Dennoch bleibt das allgemeine Prinzip, Trainingsdaten auf bestimmte Domänen zuzuschneiden, ein wertvoller Ansatz zur Verbesserung der Leistung von KI-Modellen. Die KI-Plattform von Palantir ist ein gutes Beispiel dafür mit Auswirkungen auf Verteidigungs- und Militärorganisationen.

Der rasante Fortschritt der KI-Technologien prägt Berufe in zahlreichen Branchen, wobei neue Systeme in einem Tempo entstehen, mit dem Fachleute möglicherweise nur schwer Schritt halten können. Im Bereich der Geheimdienste kann man sich leicht vorstellen, dass Agenturen innovative Technologien mit ihren eigenen Modellen entwickeln, die auf kuratierten Daten, einschließlich geheimer Informationen, trainiert werden. Angesichts dieser sich verändernden Landschaft ist ChatGPT nur eine weitere Technologie, an die sich die Geheimdienstgemeinschaft intelligent anpassen muss.

Jason Healey Herb Lin Daniel Byman Chongyang Gao Chris Meserole VS Subrahmanian Sean O'Brien Scott Shapiro Benjamin Wittes Eugenia Lostri