▲現在AI技術發達,「完美複製」他人的聲音成為可能,你能確定電話那頭是你認識的人嗎?(圖/達志影像/示意圖)
記者林緯平/整理報導
人工智慧的出現,使得「完美複製」一個人的聲音成為可能,而已有不肖份子將此技術運用在語音、電話詐騙。近年來,AI技術不斷突破,人們都能夠過搜集「特定人士」的聲紋,通過生成式人工智能製作出具有其音色的聲音。最初的用途是娛樂性的,但現在生成式人工智能正在被用來模仿其他人來詐騙。
簡化AI創建合成聲音的過程,為詐騙鋪平了道路
根據Marta Reyes在《Medium》上發佈的文章表示,允許製作生成音訊的平台數量正在增加。對於那些在YouTube或TikTok上製作影片的創作者,希望觸及其他地區觀眾的人來說,這是非常友善。AI工具能夠分析音調、語調變化,以準確模仿其他語言的聲音,「或使特定人士用其聲音說出從未說過的話」。
▲有心人士利用「假聲音」來詐騙已成為可能。(圖/CFP)
想像一下,當手機響起時,你隨意對著話筒回答:「喂」或是「你好」,這些音節就足以讓對方假扮你做很多事。如果對方有更多你的聲紋,人工智能就可以毫不費力生成一個複製的聲音。事實上,只需三秒的聲音錄製就足以複製你的聲紋。
專家已經警告關於deepfakes「深度偽造」應用於影片和聲音的危機。我們都可能會接到一個陌生號碼的電話,在按下通話鍵後,發現面對著一個熟悉的聲音,我們能抵擋對方的苦苦哀求嗎?
目前利用AI語音詐騙的方式雖然還不多,但未來勢必會出現,就像過去用簡訊、通訊軟體的詐騙一樣,使用AI合成聲音的詐騙將開始氾濫。根據經驗,並了解聲音生成系統的運作方式,這是Marta Reyes提出避免被騙的建議:
● 不要接未知和隱藏的號碼,透過這一步,可以避免不必要的來電,這樣一來,許多詐騙企圖通常就會被過濾掉。
● 在接電話時時不要馬上說話,最好保持沉默,直到對方說話。如果對方說話了(在機器人來電中,通常沒有人會說話)。將“是?”換成“說?”也是一個很好的建議。
● 在盡可能確保對方是他們所說的人。如果你認識的人給你打電話,並要求你做一些不符合常規的事情(可能是借錢),永遠不要在第一時間去執行。問他們關於只有你們兩個人知道的問題,關於那個人的過去,與你的關係,如果你有任何疑問,就掛斷電話。在你百分之百確定你認為問你的人是誰之前,永遠不要匯款。
標題:3秒錄音就能複製你!AI技術恐成詐騙新工具 專家提3招防騙
鄭重聲明:本文版權歸原作者所有,轉載文章僅爲傳播更多信息之目的,如有侵權行爲,請第一時間聯系我們修改或刪除,多謝。