AI語音模型可能「以假亂真」? 民眾疑慮恐成詐團犯罪工具

- 小
- 中
- 大
財經中心/楊思敏、郭文海 台北報導全球已進入AI革命時代,應用範圍也越來越廣,日前OpenAI開新的AI語音模型,只要利用15秒音檔就能生成,不只能作為影片旁白使用、影片可以翻譯成不同語言,還能幫病人重建聲音。但這也引發疑慮,擔心會被詐騙集團濫用,以假亂真,成為犯罪工具。
財經中心/楊思敏、郭文海 台北報導
全球已進入AI革命時代,應用範圍也越來越廣,日前OpenAI開新的AI語音模型,只要利用15秒音檔就能生成,不只能作為影片旁白使用、影片可以翻譯成不同語言,還能幫病人重建聲音。但這也引發疑慮,擔心會被詐騙集團濫用,以假亂真,成為犯罪工具。
民視記者楊思敏:「接到電話,聽起來很像是朋友的聲音,但要注意了,可能不是真的。因為隨著AI技術越來越發達,不少平台推出AI語音生成功能,未來是否可能成為詐騙集團的工具,引發疑慮。」
Open AI 30日宣布推出AI語音模型「Voice Engine」,只要輸入想講的內容,利用一個人15秒鐘的音檔,就能生成本尊的聲音,甚至還帶有情緒。
教材業者利用配音者的一段聲音,就能作為不同教學影片的旁白使用,更厲害的是,還能保留情緒和口音

原本美國人講英文,利用AI轉成中文時,還保留英文口音,仿真程度相當高。但詐騙猖獗的年代,不免讓人擔心,越真就越可能被利用,專家說目前只能靠電腦,用耳朵聽很難辨識。
台科大資通安全研究與教學中心主任查士朝表示,可能的手法會是透過一段語音檔,去抓到聲紋特徵,再生成其他內容,但目前介面上還不能能夠做到即時回應,需要生成的時間,但這只限於這一段時間,可能未來就能做到。

民眾表示,現在詐騙猖獗,不用那麼真的情況下,已經有很多長輩容易被騙,「以假亂真,那我覺得被騙,應該算是機率一定會很大幅提高。」也有人提到,AI進步技術很快,現在都已經可以寫歌了,當被用來詐騙時,也沒辦法分清楚到底是真的假的。」
Open AI從去年開始,與一些企業和機構測試,目前還沒公開使用。雖然一再強調,合成內容都會標示非真人、壓上浮水印,但未來應用越來越廣,能否確保AI不被詐騙集團濫用,還很難說。
【原文出處】:AI語音模型可能「以假亂真」? 民眾疑慮恐成詐團犯罪工具