Facebook könnte Chatbots bekommen – und das könnte ein Problem sein | ENBLE

Facebook könnte Chatbots bekommen - ein Problem? | ENBLE

Der Facebook-Eigentümer Meta plant, Chatbots mit unterschiedlichen Persönlichkeiten in seine Social-Media-App einzuführen. Der Start könnte bereits im September erfolgen und wäre eine Herausforderung für Konkurrenten wie ChatGPT, es gibt jedoch Bedenken hinsichtlich der möglichen Auswirkungen auf die Privatsphäre der Nutzer.

Die Idee stammt von der Financial Times, die berichtet, dass es sich dabei um den Versuch handelt, die Interaktion mit Facebook-Nutzern zu steigern. Das neue Tool könnte dies durch frische Suchfunktionen oder Empfehlungen von Inhalten erreichen, und das alles in Form menschenähnlicher Gespräche.

Brett Johnson / Unsplash

Laut der Financial Times sollen die Chatbots unterschiedliche Persönlichkeiten annehmen, darunter “eine, die Abraham Lincoln nachahmt, und eine andere, die Reisetipps im Stil eines Surfers gibt”.

Dies wäre nicht das erste Mal, dass Chatbots ihre eigene Persönlichkeit annehmen oder im Stil berühmter Persönlichkeiten kommunizieren. Der Chatbot Character.ai kann zum Beispiel dutzende verschiedene Persönlichkeiten übernehmen, einschließlich solcher von Prominenten und historischen Figuren.

Datenschutzbedenken

Josh Edelson/Getty Images / Meta

Trotz der möglichen Vorteile, die Meta’s Chatbots bieten könnten, wurden auch Bedenken hinsichtlich der Menge an Daten geäußert, die sie voraussichtlich sammeln werden – insbesondere in Anbetracht der schlechten Datenschutzbilanz von Facebook.

Ravit Dotan, ein AI-Ethikberater und Forscher, wurde von der Financial Times mit den Worten zitiert: “Sobald Nutzer mit einem Chatbot interagieren, gibt es dem Unternehmen wirklich viel mehr ihrer Daten preis, so dass das Unternehmen damit tun kann, was es will.”

Dies führt nicht nur zu weitreichenden Datenschutzverletzungen, sondern ermöglicht auch “Manipulation und Beeinflussung” der Nutzer, fügte Dotan hinzu.

Ein großes Risiko

Meta

Andere Chatbots wie ChatGPT und Bing Chat hatten bereits “Halluzinationen” oder Momente, in denen sie falsche Informationen oder sogar Fehlinformationen verbreiteten. Der potenzielle Schaden durch Fehlinformationen und Voreingenommenheit könnte bei Facebook, das fast vier Milliarden Nutzer hat, im Vergleich zu konkurrierenden Chatbots deutlich höher sein.

Die bisherigen Versuche von Meta mit Chatbots waren wenig erfolgreich, da sowohl der BlenderBot 2 als auch der BlenderBot 3 des Unternehmens schnell zu irreführenden Inhalten und beleidigender Hetze führten. Das lässt Nutzer wenig Hoffnung für Meta’s neuesten Versuch.

Mit dem nahenden September werden wir vielleicht nicht lange warten müssen, um zu sehen, ob es Facebook gelingt, diese Hürden zu überwinden, oder ob wir einen weiteren von Halluzinationen geprägten Start erleben werden, ähnlich wie anderswo in der Branche. Was auch immer geschieht, es wird interessant sein, dies zu beobachten.