Hacker nutzen KI, um bösartige Malware zu erstellen, sagt das FBI | ENBLE

Hacker verwenden KI für bösartige Malware, laut FBI | ENBLE

Das FBI hat davor gewarnt, dass Hacker mit generativen künstlichen Intelligenz (KI)-Tools wie ChatGPT wild umgehen und schnell bösartigen Code erstellen und Cyberkriminalitätsserien starten, die in der Vergangenheit viel mehr Aufwand erfordert hätten.

Das FBI hat seine Bedenken in einem Gespräch mit Journalisten detailliert dargelegt und erklärt, dass KI-Chatbots alle Arten von illegalen Aktivitäten befeuert haben, von Betrügern und Gaunern, die ihre Techniken perfektionieren, bis hin zu Terroristen, die die Tools zur Beratung nutzen, wie sie noch schädlichere chemische Angriffe starten können.

Sora Shimazaki / Pexels

Laut einem hochrangigen FBI-Beamten (über Tom’s Hardware) “erwarten wir, dass sich diese Trends im Laufe der Zeit verstärken, da die Einführung und Demokratisierung von KI-Modellen weitergeht”. Böswillige Akteure nutzen KI, um ihre regulären kriminellen Aktivitäten zu ergänzen, so die Fortsetzung, einschließlich der Verwendung von KI-Stimmgeneratoren, um vertrauenswürdige Personen zu imitieren, um Angehörige oder ältere Menschen zu betrügen.

Es ist nicht das erste Mal, dass wir beobachten, wie Hacker Tools wie ChatGPT nehmen und sie verzerren, um gefährliche Malware zu erstellen. Im Februar 2023 entdeckten Forscher der Sicherheitsfirma Checkpoint, dass bösartige Akteure in der Lage waren, die API eines Chatbots zu ändern, so dass er Malware-Code generieren konnte und die Erstellung von Viren für fast jeden angehenden Hacker ermöglichte.

Ist ChatGPT eine Sicherheitsbedrohung?

Hatice Baran / Unsplash

Das FBI nimmt eine sehr andere Haltung ein als einige der Cybersicherheitsexperten, mit denen wir im Mai 2023 gesprochen haben. Sie sagten uns, dass die Bedrohung durch KI-Chatbots weitgehend übertrieben sei und die meisten Hacker bessere Code-Exploits aus traditionelleren Datenlecks und Open-Source-Forschung finden.

Zum Beispiel erklärte Martin Zugec, technischer Lösungsdirektor bei Bitdefender, dass “die Mehrheit der Anfänger-Malware-Autoren wahrscheinlich nicht über die erforderlichen Fähigkeiten verfügt”, um die Anti-Malware-Schutzmechanismen von Chatbots zu umgehen. Zugec erklärte außerdem, dass “die Qualität des von Chatbots produzierten Malware-Codes tendenziell niedrig ist”.

Das bietet einen Gegenpunkt zu den Behauptungen des FBI, und wir werden sehen müssen, welche Seite sich als richtig erweist. Aber mit OpenAI, dem Hersteller von ChatGPT, der sein eigenes Tool zur Erkennung von Plagiaten, die von Chatbots generiert wurden, einstellt, waren die Nachrichten in letzter Zeit nicht ermutigend. Wenn das FBI Recht hat, könnten in der Auseinandersetzung mit Hackern und ihren Versuchen, durch Chatbots unterstützte Malware zu erstellen, schwierige Zeiten bevorstehen.