
【記者蔡富丞、廖秉賢/綜合報導】隨著人工智慧(AI)技術的快速發展,AI 已能生成高度擬真的照片、影片,甚至聲音模仿,讓真假資訊難以分辨。專家周訓財警告,AI 技術雖然帶來便利與創新,卻也可能助長假訊息的流竄,甚至對社會信任機制造成衝擊。

AI 生成技術近年來突飛猛進,從照片到影片,甚至聲音合成,都能以假亂真。例如近期網路上流行將個人照片轉換成吉卜力風格,這類 AI 工具能輕易模仿各種藝術風格,甚至無須專業技術即可操作。然而,這種技術若遭濫用,可能被不法分子用來製造虛假影像,例如假新聞、假證件,甚至是冒用他人身份的合成影片。

「現在只要透過 AI,就能讓任何人『說出』他從未說過的話,這是非常危險的趨勢。」周訓財指出,AI 深度偽造(deepfake)技術的進步,使得偽造影片和音頻變得前所未有的簡單,政治人物、明星、甚至普通民眾都可能成為受害者。
除了影像,AI 甚至能精準模仿個人聲音,生成高度擬真的語音內容。例如,近期網路上流行「AI 周杰倫」、「AI 孫燕姿」等 AI 歌手,這些技術讓過去只能在錄音室完成的音樂製作變得更加自由。然而,這類 AI 模仿技術也引發了著作權與個人隱私的爭議。
「如果 AI 可以模仿任何人的聲音,那麼詐騙電話的可信度將大幅提高,未來的身份驗證機制將面臨極大挑戰。」周訓財強調,AI 模仿聲音的技術雖然具有娛樂價值,但也可能被用來冒充親友詐騙、假造證詞,甚至侵犯個人版權與名譽。
面對 AI 生成技術的崛起,該如何防範假訊息的擴散?專家建議,民眾應提高媒體識讀能力,對於網路上的資訊應抱持懷疑態度,並透過多重驗證方式確認資訊的真實性。例如:
1. 檢查來源:確認資訊是否來自可靠的新聞機構或官方管道,而非匿名社群或未經驗證的網站。
2. 使用反向搜尋:針對可疑圖片或影片,可使用 Google 反向圖片搜尋、TinEye 等工具確認其來源與真實性。
3. 觀察異常細節:AI 生成的假影像或假影片,常常會出現手指異常、光影不自然、口型對不上聲音等問題。
4. 警惕聲音詐騙:接到可疑電話時,特別是熟人要求匯款或提供個資時,應再三確認,或透過視訊通話進一步驗證身份。
AI 技術雖然帶來便利,卻也讓假訊息的傳播變得更加棘手。未來,隨著 AI 繼續進化,如何建立防偽機制、加強數位版權保護,將成為全球關注的焦點。周訓財強調:「科技的發展無法阻擋,但我們可以學習如何應對,保持警覺,才能在 AI 時代中保護自身權益。」
原始新聞來源 AI時代來臨 周訓財:謹防假造訊息流竄 臺灣郵報.