AI複製聲音成新型電話詐騙手法。(圖/路透社)
「媽,我被綁架了」、「爸,我發生車禍了」是電話詐騙常用的老梗,十萬火急要求家人匯款,讓人擔憂的是,隨著科技進步,現在AI複製聲音成為新的詐騙手法,一般民眾根本難辨真假。
目前國外已經發生相當多的類似案例,不良份子利用AI複製聲音來進行電話詐騙,成為新型態詐騙手法,美國聯邦貿易委員會(FTC)近日特別警告消費者,詐騙集團可以利用短短3秒鐘本尊聲音,加上AI技術,製造模仿本人聲音,呼籲民眾小心別上當。
電話詐騙手法日新月異。(圖/翻攝網路)
近日美國亞利桑那州一位母親現身說法,她親身遭遇可怕的電話詐騙案件,涉及AI仿聲技術,求救電話那頭傳出她15歲女兒的本人聲音,她遭到勒索否則女兒將性命不保,幸好很快確認了女兒的安全,顯示這是一通詐騙電話,但電話中跟女兒幾乎相似的聲音,讓她感到震驚,因此出面向大眾提出警告。
外媒9to5mac也提供兩招防範關鍵:AI複製聲音技術進步,只須擁有幾秒鐘聲音的樣本就能進行複製,詐騙集團會在社群平台上進行搜集,因此不要在社群隨意發布有自己聲音的影片,或者將影片設為私人權限;另外,避免在社群上公開自己的手機號碼等訊息。
《你可能還想看》