Polizeibehörden warnen vor einer alarmierenden Technik bei Schockanrufen: Kriminelle nutzen nun Künstliche Intelligenz (KI), um vertraute Stimmen zu imitieren. Laut Ralf Kusterer, stellvertretendem Bundesvorsitzenden der Polizeigewerkschaft, sind diese täuschend echten Sprachimitationen ein Zeichen für eine besorgniserregende Evolution im Telefonbetrug.
Traditionell behaupten Betrüger in Schockanrufen, ein Familienmitglied sei in Gefahr, und fordern Geld. Doch das Szenario wird umso erschreckender, wenn der Anruf scheinbar von einer bekannten, geliebten Stimme kommt. „Die Täuschung erreicht mit der KI-Nachbildung eine völlig neue Stufe“, sagt Kusterer.
Nicht nur der finanzielle Verlust ist das Problem, sondern auch die seelischen Narben, die solch ein traumatisierender Anruf hinterlassen kann – selbst wenn kein Geld überwiesen wird. Darüber hinaus gibt es die beunruhigende Möglichkeit, dass Betrüger während des Anrufs die Stimmen ihrer Opfer aufzeichnen und für zukünftige Betrügereien nutzen könnten.
Kriminelle, die diese Art von Anrufen durchführen, recherchieren intensiv und wählen oft ältere Menschen als ihre Zielscheibe. Sachsen verzeichnete 2022 beeindruckende 251 erfolgreiche Schockanruf-Betrügereien, die insgesamt 2,1 Millionen Euro Schaden verursachten.
Die gute Nachricht: Nicht jeder Versuch endet erfolgreich. Es gab Fälle, in denen die Polizei gegen diese Betrüger vorgehen konnte. Bürgern wird geraten, jegliche verdächtige Anrufe umgehend zu melden. Dies hilft den Behörden, gegen diese wachsende Bedrohung vorzugehen.
Der Beitrag KI als Betrugshelfer erschien zuerst auf Mehrwert Zeitung.