晴時多雲

已經加好友了,謝謝
歡迎加入【自由3C科技】
按個讚 心情好
已經按讚了,謝謝。

AI複製聲音連爸媽都難辨真假!兩關鍵警告小心新型電話詐騙

2023/04/18 08:33 文/記者吳佩樺

AI複製聲音成新型電話詐騙手法。(圖/路透社)

「媽,我被綁架了」、「爸,我發生車禍了」是電話詐騙常用的老梗,十萬火急要求家人匯款,讓人擔憂的是,隨著科技進步,現在AI複製聲音成為新的詐騙手法,一般民眾根本難辨真假。

目前國外已經發生相當多的類似案例,不良份子利用AI複製聲音來進行電話詐騙,成為新型態詐騙手法,美國聯邦貿易委員會(FTC)近日特別警告消費者,詐騙集團可以利用短短3秒鐘本尊聲音,加上AI技術,製造模仿本人聲音,呼籲民眾小心別上當。

電話詐騙手法日新月異。(圖/翻攝網路)

近日美國亞利桑那州一位母親現身說法,她親身遭遇可怕的電話詐騙案件,涉及AI仿聲技術,求救電話那頭傳出她15歲女兒的本人聲音,她遭到勒索否則女兒將性命不保,幸好很快確認了女兒的安全,顯示這是一通詐騙電話,但電話中跟女兒幾乎相似的聲音,讓她感到震驚,因此出面向大眾提出警告。

外媒9to5mac也提供兩招防範關鍵:AI複製聲音技術進步,只須擁有幾秒鐘聲音的樣本就能進行複製,詐騙集團會在社群平台上進行搜集,因此不要在社群隨意發布有自己聲音的影片,或者將影片設為私人權限;另外,避免在社群上公開自己的手機號碼等訊息。

《你可能還想看》 

小心被 AI 出賣!外媒警告與 ChatGPT 聊天千萬別做這 4 件事

不用抽 不用搶 現在用APP看新聞 保證天天中獎  點我下載APP  按我看活動辦法

看更多!加入3C科技粉絲團
網友回應