AIによるクローン音声、すでに犯罪に利用 米国

2023年8月9日 08:37

米国でAIによるクローン音声を使った偽装誘拐がおこなわれたという。母親が電話に出ると「助けて!」と叫ぶ声娘の悲鳴を流され、100万ドルの身代金を要求するという事件だった。しかし、本物の娘と少し後に電話がつながったことでこの電話は偽装誘拐詐欺であることが判明した。FBIによれば、米国ではこうした偽装誘拐詐欺が増加しているという(INTERNET Watch)。 米国ではこうした事件1件当たりで、平均1万1000ドルの被害に遭っているとされ、2022年にはなりすまし詐欺全体での被害金額は26億ドルにも達しているとされる。最近の偽装誘拐詐欺では、AIを用いて被害者の家族の声を模倣する手法が使われており、見破ることが難しくなっている。 この事例を踏まえ、日本でもオレオレ詐欺にAIによるクローン音声が使われる可能性がある。オレオレ詐欺は現在でも日本で多くの被害をもたらしており、AI技術の進化によって被害が増えることが懸念されている。FBIは家族間の合言葉の設定やSNSに外出情報を投稿しないよう注意するようアドバイスしている。 

関連記事

最新記事