Cyber-Gangster nutzen immer öfter KI-Tools wie ChatGPT zur Herstellung von Schad-Software, warnen Forscher der University of Sheffield. Die Fachleute haben Sicherheitslücken in sechs kommerziellen KI-Tools entdeckt. Neben ChatGPT waren das AI2SQL, AIHELPERBOT, Text2SQL, ToolSKE sowie Baidu-UNIT, eine chinesische Plattform für intelligenten Dialog, die von namhaften Kunden in vielen Branchen genutzt wird, darunter E-Commerce, Bankwesen, Journalismus, Telekommunikation, Automobil und zivile Luftfahrt.

Serverknoten leicht deaktivieren

Die britischen Informatiker sind die Ersten, die gezeigt haben, dass sich Text-to-SQL-Systeme – KI, die es Menschen ermöglicht, Datenbanken zu durchsuchen, indem sie Fragen in einfacher Sprache stellen und in einer Vielzahl von Branchen eingesetzt werden – ausnutzen lassen, um Computersysteme in der realen Welt anzugreifen. Sie können so manipuliert werden, dass sie sensible persönliche Daten stehlen, Datenbanken manipulieren oder zerstören und Denial-of-Service-Angriffe starten, also bestimmte Internetdienste lahmlegen. Mit Baidu-UNIT etwa konnten die Wissenschaftler vertrauliche Baidu-Serverkonfigurationen entschlüsseln und einen Serverknoten außer Betrieb setzen.

„Viele Unternehmen sind sich dieser Bedrohungen einfach nicht bewusst und aufgrund der Komplexität von Chatbots gibt es auch innerhalb der Community Dinge, die nicht vollständig bekannt sind», sagt Informatik-Doktorand Xutan Peng. Das Risiko bei diesen Chatbots bestehe darin, dass immer mehr Menschen sie als Produktivitäts-Tools und nicht als Konversations-Bots verwenden. „Hier zeigen unsere Untersuchungen, dass Schwachstellen bestehen», so Peng. Beispielsweise könne eine Krankenschwester ChatGPT darum bitten, einen SQL-Befehl zu formulieren, damit sie mit einer Datenbank interagieren kann, in der klinische Daten gespeichert sind. Dieser Code sei in vielen Fällen jedoch für die Datenbank schädlich.

Schwer vorhersagbare Reaktion

„Die in Text-to-SQL-Systemen verwendeten Modelle sind äußerst leistungsfähig, ihr Verhalten ist jedoch komplex und lässt sich schwer vorhersagen», warnt Mark Stevenson, Dozent in der Forschungsgruppe Natural Language Processing. „Wir arbeiten derzeit daran, diese Modelle besser zu verstehen, um ihr Potenzial sicher nutzen zu können.»

Quelle: Sheffield pte012   www.sheffield.ac.uk