
Betrug mit Deepfakes: Vorsicht! Hier spricht ein Stimmenklon mit Dir
Täuschend echte Videos und perfekt nachgemachte Stimmen durch KI erleichtern Betrug und bergen neue Risiken für Unternehmen, aber auch für Privatpersonen, warnen Neu-Ulmer Cybersicherheits-Experten.

Eine 20 Sekunden lange Audioaufnahme reicht Betrügern aus, um die Stimme perfekt zu klonen.
SWP-Montage: Max Meschkowski, Fotos: Allistair F/peopleimages.com & von Mykola /adobe.stock.com