Microsoft könnte Ihre Bing Chat-Konversationen speichern

Microsoft könnte Chat-Konversationen speichern.

Uh-oh – Microsoft speichert möglicherweise Informationen aus Ihren Bing-Chats.

Das ist wahrscheinlich völlig in Ordnung, solange Sie noch nie über etwas gechattet haben, das Sie nicht möchten, dass es jemand anderes liest, oder wenn Sie dachten, Ihre Bing-Chats würden gelöscht werden, oder wenn Sie dachten, Sie hätten mehr Privatsphäre als tatsächlich vorhanden.

In seinen Nutzungsbedingungen hat Microsoft neue KI-Richtlinien aktualisiert. Diese wurden am 30. Juli eingeführt und treten am 30. September in Kraft. In den Richtlinien heißt es: “Im Rahmen der Bereitstellung der KI-Dienste wird Microsoft Ihre Eingaben für den Dienst sowie die Ausgaben des Dienstes verarbeiten und speichern, um missbräuchliche oder schädliche Nutzungen oder Ausgaben des Dienstes zu überwachen und zu verhindern.”

Laut dem Register kann Microsoft Ihre Unterhaltungen mit Bing speichern, wenn Sie kein Unternehmensbenutzer sind – und wir wissen nicht, wie lange. Microsoft hat nicht unmittelbar auf eine Anfrage von ENBLE geantwortet, und ein Sprecher von Microsoft hat es abgelehnt, dem Register gegenüber zu kommentieren, wie lange es Benutzereingaben speichern wird.

“Wir aktualisieren regelmäßig unsere Nutzungsbedingungen, um unsere Produkte und Dienstleistungen besser widerzuspiegeln”, sagte ein Vertreter in einer Erklärung gegenüber dem Register. “Unser jüngstes Update der Microsoft Services-Vereinbarung umfasst die Hinzufügung von Sprache, um künstliche Intelligenz in unseren Diensten und ihre angemessene Nutzung durch Kunden widerzuspiegeln.”

Neben der Speicherung von Daten gab es vier weitere Richtlinien in der neuen KI-Dienste-Klausel. Benutzer dürfen den KI-Dienst nicht nutzen, um “irgendeine zugrunde liegende Komponente der Modelle, Algorithmen und Systeme zu entdecken”. Benutzern ist es nicht gestattet, Daten aus den KI-Diensten zu extrahieren. Benutzer dürfen den KI-Dienst nicht nutzen, um “direkt oder indirekt einen anderen KI-Dienst zu erstellen, zu trainieren oder zu verbessern”. Und schließlich sind Benutzer “ausschließlich dafür verantwortlich, auf Ansprüche Dritter im Zusammenhang mit der Nutzung der KI-Dienste in Übereinstimmung mit geltendem Recht (einschließlich, aber nicht beschränkt auf Urheberrechtsverletzungen oder andere Ansprüche in Bezug auf Inhalte, die während der Nutzung der KI-Dienste ausgegeben werden) zu reagieren”.

Seien Sie also vielleicht etwas vorsichtiger bei der Verwendung von Microsoft Bing-Chats oder wechseln Sie in den Bing Enterprise Chat-Modus – Microsoft hat im Juli angekündigt, dass diese Unterhaltungen nicht gespeichert werden.