AI「模仿兒子聲音」:我撞死人了 老夫妻慘遭詐騙64萬!音檔來源曝

人工智慧 (AI) 的蓬勃發展,再度改變人類世界,在生活越來越便利的情況下,也讓詐騙集團日益猖獗,利用科技犯法。日前加拿大一名男子珀金 (Benjamin Perkin) 與妻子,就栽在人工智慧手裡。

March 16, 2023
選擇語言:
TEEPR原創
採訪報導
綜合報導
編譯
特稿

人工智慧 (AI) 的蓬勃發展,再度改變人類世界,在生活越來越便利的情況下,也讓詐騙集團日益猖獗,利用科技犯法。日前加拿大一名男子珀金 (Benjamin Perkin) 與妻子,就栽在人工智慧手裡。

圖片來源/路透社
廣告1

 

根據《商業內幕》 (INSIDER) 報導,某天珀金夫妻倆接到「兒子」的電話,對方哭著說,自己撞死一名外交官,必須入獄,求他們幫忙支付2.1萬美元 (約新台幣64萬元) 的律師費,隨後開始籌錢並透過虛擬貨幣付款。事實上,這通電話根本不是兒子打來的,而是詐騙集團透過人工智慧「模擬出兒子聲音」,再撥電話給老夫妻。

圖片來源/商業內幕
廣告2

 

事後,珀金回憶,當時只覺得對方的聲音「超像我兒子」,所以趕緊匯款,事後卻發現,對話內容有點奇怪,打電話給兒子確認後,驚覺上當受騙,即便立馬報警,錢也拿不回來。至於人工智慧為何有辦法模仿兒子的聲音呢?據悉,可能是他在曾在YouTube上傳一部關於雪地摩托車的影片,詐騙集團擷取音軌等方式進行合成與偽造,導致不知情的老夫妻掉入陷阱。

示意圖,圖片來源/pexels

 

然而,先前早有類似案例。2019年,人工智慧模仿某間英國能源公司董事長的聲音,董事長助手慘遭詐騙,將24萬美元 (約新台幣734萬元) 匯到匈牙利的詐騙集團帳戶。據美國聯邦貿易委員會 (FTC) 的數據顯示,相關詐騙案件在2022年已高達240萬件,整體損失的金額為88億美元 (約新台幣2700億元) 。

示意圖,圖片來源/Time
「ChatGPT」恐搶人類飯碗?專家警告:10種職業快避開
危機中現轉機!迎接Cookie退場倒數 全球急尋新AI數據智能平台
太聰明了吧@@

 

TEEPR 新片上映:

參考資料:INSIDER
著作權聲明:非法抄襲網站請注意,本站所有內容皆由自家 編輯撰寫,並非如非法內容農場複製貼上。本網站之文字敘述、圖片、影像視聽及其他資訊等,非經授權,不得轉載。如侵權將立刻請臉書封鎖專頁。微改標題、圖片、前段,仍然抓得到!
分類:世界, 科技
加入粉絲團! AI「模仿兒子聲音」:我撞死人了 老夫妻慘遭詐騙64萬!音檔來源曝留言按此 好友人數分享! 好友人數加入好友
廣告
廣告