據外媒Techspot報道,人們可以使用許多方法來處理圖像和視頻,因此谷歌通過發布更易于發現篡改的在線內容的工具來為最糟糕的情況做準備。隨著2020年美國總統大選的臨近,科技巨頭們正在尋找不同的方式來對抗假新聞,錯誤信息以及在大型社交和搜索平臺上傳播deepfakes視頻的情況。
以谷歌為例,它一直在準備防御措施以應對假新聞浪潮。但是,這家搜索巨頭希望通過其Jigsaw子公司采取更為主動的方法,該方法使用最近發布的名為Assembler的平臺來幫助事實檢查人員和新聞記者在圖像有機會在線傳播之前迅速對其進行驗證。
這些工具是免費的,并且雖然公認是“早期實驗平臺”的一部分,但它們是一個很好的起點,其中包括來自加州大學伯克利分校,那不勒斯菲里德里克第二大學和馬里蘭大學的學者的貢獻。
匯編程序的工作方式是將幾種機器學習算法組合在一起,這些算法擅長查找顏色和噪聲圖案,噪聲圖案中的不一致之處以及查看各種圖像
Assembler擅長檢測圖像中最常用的篡改技術,例如播放亮度或復制和粘貼紋理或對象以掩蓋某物或某人。它帶有一個分數,該分數代表圖片可能被篡改或以任何其他方式更改的可能性,類似于Adobe的About Face AI。該項目的另一個目標是微調可以發現使用StyleGAN創建的 deepfakes,StyleGAN是一種能夠產生令人信服的假想面孔的算法。
Jigsaw首席執行官Jared Cohen在博客文章中解釋說,該公司“觀察到虛假信息以被用于操縱選舉,發動戰爭和破壞公民社會的方式的發展。” 這種認識導致決定開發用于阻止這些嘗試的技術。
在撰寫本文時,Assembler具有七個不同的工具,記者和其他人可以使用它們來發現遭篡改的圖像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告訴《紐約時報》,匯編程序不是靈丹妙藥,作為一個生態系統,匯編程序需要隨著時間的推移快速發展和改進。
這就是Jigsaw還發布了一個名為“ The Current”的網絡出版物的原因,該出版物將持續不斷地展示正在進行的有關檢測錯誤信息活動的研究。Cohen表示:“我們的主要動機是創建一個場所,使人們可以訪問許多在處理此問題的第一線的專家,獨立研究人員和組織的工作。”
人們可以使用許多方法來處理圖像和視頻,因此谷歌通過發布更易于發現篡改的在線內容的工具來為最糟糕的情況做準備。隨著2020年美國總統大選的臨近,科技巨頭們正在尋找不同的方式來對抗假新聞,錯誤信息以及在大型社交和搜索平臺上傳播deepfakes視頻的情況。
以谷歌為例,它一直在準備防御措施以應對假新聞浪潮。但是,這家搜索巨頭希望通過其Jigsaw子公司采取更為主動的方法,該方法使用最近發布的名為Assembler的平臺來幫助事實檢查人員和新聞記者在圖像有機會在線傳播之前迅速對其進行驗證。
這些工具是免費的,并且雖然公認是“早期實驗平臺”的一部分,但它們是一個很好的起點,其中包括來自加州大學伯克利分校,那不勒斯菲里德里克第二大學和馬里蘭大學的學者的貢獻。
匯編程序的工作方式是將幾種機器學習算法組合在一起,這些算法擅長查找顏色和噪聲圖案,噪聲圖案中的不一致之處以及查看各種圖像中像素的屬性。
Assembler擅長檢測圖像中最常用的篡改技術,例如播放亮度或復制和粘貼紋理或對象以掩蓋某物或某人。它帶有一個分數,該分數代表圖片可能被篡改或以任何其他方式更改的可能性,類似于Adobe的About Face AI。該項目的另一個目標是微調可以發現使用StyleGAN創建的 deepfakes,StyleGAN是一種能夠產生令人信服的假想面孔的算法。
Jigsaw首席執行官Jared Cohen在博客文章中解釋說,該公司“觀察到虛假信息以被用于操縱選舉,發動戰爭和破壞公民社會的方式的發展。” 這種認識導致決定開發用于阻止這些嘗試的技術。
在撰寫本文時,Assembler具有七個不同的工具,記者和其他人可以使用它們來發現遭篡改的圖像。但是,Jigsaw研究者Santiago Andrigo和Andrew Gully告訴《紐約時報》,匯編程序不是靈丹妙藥,作為一個生態系統,匯編程序需要隨著時間的推移快速發展和改進。
這就是Jigsaw還發布了一個名為“ The Current”的網絡出版物的原因,該出版物將持續不斷地展示正在進行的有關檢測錯誤信息活動的研究。Cohen表示:“我們的主要動機是創建一個場所,使人們可以訪問許多在處理此問題的第一線的專家,獨立研究人員和組織的工作。”
據了解,Google的技術孵化器Jigsaw發布了一個名為Assembler的實驗平臺,以幫助記者和前線事實檢查人員快速驗證圖像。
其匯編程序結合了學術界現有的幾種技術來檢測常見的操縱技術,包括更改圖像亮度和將復制的像素粘貼到其他地方以掩蓋某些東西,同時保留相同的視覺紋理。它還包括一個檢測器,該檢測器可以發現使用StyleGAN創建的深層偽造品,StyleGAN是一種可以生成逼真的假想面孔的算法。這些檢測技術會輸入到主模型中,該模型會告訴用戶圖像被操縱的可能性有多大。
眾所周知,偽造圖像是更難驗證的事情,尤其是隨著人工智能操縱的興起。隨著信息的傳播速度和規模的擴大,新聞記者和事實檢查者作出反應的機會窗口也在迅速縮小。
匯編程序是與受控媒體作斗爭的重要一步,但它并未涵蓋許多其他現有的操縱技術,包括用于視頻的操縱技術,隨著生態系統的不斷發展,團隊需要對其進行補充和更新。它仍然作為與通常分發篡改圖像的渠道分開的平臺而存在。專家建議,像Facebook和Google這樣的技術巨頭將這些類型的檢測功能直接整合到其平臺中。這樣,可以在上傳和共享照片和視頻時幾乎實時地執行此類檢查。
也有其他方法可以考慮。例如,一些初創公司正在采用驗證技術,該技術可以在拍攝照片時記住照片中像素的位置,但這也帶來了挑戰。最終,技術修復還遠遠不夠。數字偽造最棘手的方面之一并不是偽造圖像本身。而是它們存在的想法,可以很容易地調用它們來質疑真實媒體的準確性。這是挑戰的類型,也將需要社會和政策解決方案。