堵住AI安全漏洞,法規之外更需技術制衡

AI人工智能 2020-01-14 18:3052未知admin

  如今,AI換臉在網上被玩的不亦樂乎。喜歡哪個明星,就把所有電視劇主角都換成他的臉,如果只是單純娛樂,貌似也無可厚非。但可怕的是,你的臉很可能會被“植入”到色情視頻然后被打包販賣,甚至你的手機、電腦、智能門鎖等應用了人臉識別技術的設備也可能被AI換臉輕松攻破。有人用AI視頻造假,亦或是犯罪,似乎就沒那么好玩了。

  刷臉支付、人臉識別……不可否認,人工智能技術給人們的生活帶來了諸多便利?!暗覀円矐斦?,當前人工智能技術還處在初步發展階段,仍然面臨著一些挑戰?!鼻迦A大學教授、清華大學人工智能研究院基礎理論研究中心主任朱軍說。

  “任何技術都是一把雙刃劍,當AI技術應用到越來越多的場景,由于AI算法本身存在漏洞所引發的安全問題必須引起足夠重視。同時,AI技術的濫用也將引發安全隱患,比如隱私與倫理問題。當AI開始觸碰邊界問題,安全性就成為AI發展過程中必須思考的課題?!北本┤鹑R智慧科技有限公司(以下簡稱RealAI)高級產品經理張旭東在接受科技日報記者采訪時說。

  技術漏洞帶來AI安全問題

  回家,到單元樓門口,刷一下臉,門就開了。人臉解鎖已經成為生活中最常見的AI應用場景之一。然而,很少有人會想到,當前的AI算法存在明顯的“安全盲點”。

  RealAI團隊就曾做過相關研究:針對識別算法漏洞,可生成一類名為對抗樣本的“噪音”,惡意誤導AI算法輸出非預期的結果,誘導識別系統出錯。團隊成員通過一張打印上對抗樣本“噪音”的紙,成功地讓研究對象在識別系統下實現“隱身”,如果再把紙貼在其他實物上,比如小車模型上,也可以讓該物體在識別系統下完全“消失不見”。此外,他們還研發了一種帶有噪點的“眼鏡”,只要戴上,即使不是本人,也能成功破解商用智能手機的刷臉解鎖,甚至包括門鎖等其他人臉識別設備。

  “AI算法漏洞本質上是安全問題的一大類,而解決安全問題往往是攻防兩端不斷對抗、演化的過程?!睆埿駯|說。目前對主流的攻擊手段都有比較有力的防御手段,如可以通過訓練模型去除對抗“噪音”,或是檢測出對抗樣本以后將其從數據中去除,以及使用攻擊算法生成大量對抗樣本對模型做對抗訓練等方式來解決這些問題。

  由于AI換臉技術也在不段進化,早期換臉技術生成的視頻中人物往往不會眨眼,可根據一些較為明顯的特征直接肉眼判斷。但隨著深度偽造技術的不斷演化,這些鑒別方法已不再有效。

  “面對這種情況,我們會根據當前市面上流行的換臉算法生成海量的訓練樣本,再結合貝葉斯學習處理還未出現的新型虛假視頻。簡單理解,就是基于主流的甚至更為領先的生成技術制作出大量逼真的假視頻,再利用這些假視頻訓練出一個新的模型。做的假視頻越逼真,訓練出來的模型分辨能力就越強?!睆埿駯|說。

上一篇:當司法遇上人工智能,“秒判”可能嗎 下一篇:沒有了

眼爆科技 Copyright © 2002-2017 深圳眼爆智能科技有限公司 版權所有?備案號:* 本站資源來自互聯網,我們轉載的目的是用于學習交流與討論,如果您認為我們的轉載侵犯了您的權益,請與我們聯系(Email:[email protected]),我們將在3個工作日內刪除相關內容。

郵箱地址:[email protected]
大乐透胆拖奖金查询表