Microsofts Red-Team überwacht KI seit 2018. Hier sind fünf wichtige Erkenntnisse.
Microsoft's Red Team monitors AI since 2018. Here are five important findings.

In den letzten sechs Monaten wurden die positiven Auswirkungen künstlicher Intelligenz stärker denn je hervorgehoben, aber auch die Risiken.
In ihrer besten Form ermöglicht KI den Menschen, alltägliche Aufgaben einfacher zu erledigen und sogar Durchbrüche in verschiedenen Branchen zu erzielen, die die Arbeitsweise revolutionieren können.
In ihrer schlechtesten Form kann KI jedoch Fehlinformationen produzieren, schädliche oder diskriminierende Inhalte generieren und Sicherheits- und Datenschutzrisiken darstellen. Aus diesem Grund ist es äußerst wichtig, genaue Tests durchzuführen, bevor die Modelle der Öffentlichkeit zugänglich gemacht werden, und Microsoft tut dies bereits seit fünf Jahren.
Außerdem: Microsoft erweitert Bing AI für mehr Browser – aber mit Einschränkungen
Vor dem Aufkommen des ChatGPT-Booms war KI bereits eine wirkungsvolle, aufstrebende Technologie, und deshalb hat Microsoft 2018 ein KI-Red-Team zusammengestellt.
- Vandalen, die dein Metaverse durcheinanderbringen? Apples neues Pat...
- Nvidia steigert seinen Superchip Grace-Hopper mit schnellerem Speic...
- Es ist offiziell Amazon wird im Oktober einen zweiten Prime Day Sal...
Das KI-Red-Team besteht aus interdisziplinären Experten, die sich darauf spezialisiert haben, die Risiken von KI-Modellen zu untersuchen, indem sie “wie Angreifer denken” und “KI-Systeme auf Schwachstellen prüfen”, so Microsoft.
Rund fünf Jahre nach der Einführung teilt Microsoft nun seine Red-Teaming-Praktiken und Erkenntnisse, um ein Beispiel für die verantwortungsvolle Implementierung von KI zu setzen. Laut dem Unternehmen ist es wichtig, KI-Modelle sowohl auf der Basismodell-Ebene als auch auf der Anwendungsebene zu testen. Zum Beispiel überwachte Microsoft bei Bing Chat die KI sowohl auf der GPT-4-Ebene als auch auf dem tatsächlichen Sucherlebnis, das von GPT-4 unterstützt wird.
“Beide Ebenen haben ihre eigenen Vorteile: Das Red-Teaming des Modells hilft beispielsweise dabei, frühzeitig im Prozess zu erkennen, wie Modelle missbraucht werden können, die Fähigkeiten des Modells abzustecken und die Grenzen des Modells zu verstehen”, sagt Microsoft.
Das Unternehmen teilt fünf wichtige Erkenntnisse zum KI-Red-Teaming mit, die es in den letzten fünf Jahren gewonnen hat.
Die erste Erkenntnis ist die Vielseitigkeit des KI-Red-Teaming. Anstatt nur auf Sicherheit zu testen, umfasst das KI-Red-Teaming eine Vielzahl von Techniken, die auf Faktoren wie Fairness und die Generierung schädlicher Inhalte abzielen.
Die zweite Erkenntnis ist die Notwendigkeit, sich auf Fehler sowohl von bösartigen als auch von gutartigen Personen zu konzentrieren. Obwohl das Red-Teaming normalerweise darauf abzielt, wie ein böswilliger Akteur die Technologie nutzen würde, ist es auch wichtig zu testen, wie sie schädliche Inhalte für den durchschnittlichen Benutzer generieren könnte.
“Im neuen Bing hat sich das KI-Red-Teaming nicht nur darauf konzentriert, wie ein bösartiger Angreifer das KI-System durch sicherheitsbezogene Techniken und Exploits unterwandern kann, sondern auch darauf, wie das System problematische und schädliche Inhalte generieren kann, wenn normale Benutzer mit dem System interagieren”, sagt Microsoft.
Die dritte Erkenntnis ist, dass KI-Systeme ständig weiterentwickelt werden und daher das Red-Teaming dieser KI-Systeme auf mehreren verschiedenen Ebenen notwendig ist, was zur vierten Erkenntnis führt: Das Red-Teaming generativer KI-Systeme erfordert mehrere Versuche.
Außerdem: ChatGPT erhält in dieser Woche eine Reihe von Updates. Hier ist, was Sie wissen müssen
Jedes Mal, wenn Sie mit einem generativen KI-System interagieren, erhalten Sie wahrscheinlich eine andere Ausgabe; daher müssen laut Microsoft mehrere Versuche beim Red-Teaming unternommen werden, um sicherzustellen, dass ein Systemversagen nicht übersehen wird.
Zu guter Letzt sagt Microsoft, dass die Minimierung von KI-Fehlern eine mehrschichtige Verteidigung erfordert, was bedeutet, dass nachdem ein Red-Team ein Problem identifiziert hat, verschiedene technische Maßnahmen ergriffen werden müssen, um das Problem anzugehen.
Maßnahmen wie diejenigen, die Microsoft ergriffen hat, sollten helfen, Bedenken hinsichtlich aufkommender KI-Systeme zu mildern und gleichzeitig die mit diesen Systemen verbundenen Risiken zu mindern.