AIによるクローン音声、すでに犯罪に利用 米国

2023年8月9日 08:37

印刷

記事提供元:スラド

米国でAIによるクローン音声を使った偽装誘拐がおこなわれたという。母親が電話に出ると「助けて!」と叫ぶ声娘の悲鳴を流され、100万ドルの身代金を要求するという事件だった。しかし、本物の娘と少し後に電話がつながったことでこの電話は偽装誘拐詐欺であることが判明した。FBIによれば、米国ではこうした偽装誘拐詐欺が増加しているという(INTERNET Watch)。

米国ではこうした事件1件当たりで、平均1万1000ドルの被害に遭っているとされ、2022年にはなりすまし詐欺全体での被害金額は26億ドルにも達しているとされる。最近の偽装誘拐詐欺では、AIを用いて被害者の家族の声を模倣する手法が使われており、見破ることが難しくなっている。

この事例を踏まえ、日本でもオレオレ詐欺にAIによるクローン音声が使われる可能性がある。オレオレ詐欺は現在でも日本で多くの被害をもたらしており、AI技術の進化によって被害が増えることが懸念されている。FBIは家族間の合言葉の設定やSNSに外出情報を投稿しないよう注意するようアドバイスしている。 

スラドのコメントを読む | セキュリティセクション | 犯罪 | セキュリティ | アメリカ合衆国

 関連ストーリー:
米カップル、結婚式の司会をChatGPTに丸投げ。AIに永遠の愛を誓う 2023年07月12日
YouTube、AIによる吹替サービス提供計画 2023年06月25日
NVIDIA、対話できるNPCを実現するAIファウンドリサービス 2023年06月06日
Cortana、AIに仕事を奪われる 2023年06月06日

※この記事はスラドから提供を受けて配信しています。

関連キーワード

関連記事