程序員開發出運算法“脫光”女性衣服,這什麼惡臭發明啊?

一直以來,女性穿的少,

就會被指責穿着暴露、行爲不檢。

而今,即使穿戴整齊,

也會被無孔不入的網絡“意淫”,

這個社會對女性的傷害從未減少。

近日,據外媒報道,國外一個技術團隊製作出一個名爲Deepnude的應用軟件。

使用該軟件,上傳穿衣的女性照片,系統會根據網絡算法直接將其轉化爲裸女。

號稱“一鍵扒衣”……並且使用者還可以保存高質去水印的圖片。

並且上傳的女性照片穿着越裸露,生成的圖片越真實。

這個應用傳出後,在網絡上引起人們的強烈譴責,這一技術嚴重侵犯到女性隱私。

僅靠一張照片就能生成裸照,試想多少女性會在完全不知情的情況下成爲網絡偷窺者的獵物?

連中國網友看到這則新聞也都紛紛表示,不能接受。

“這什麼惡臭發明啊!!”

“如果你真的裸露,別人也會指責你不自愛自重,現在呢,你真的不裸露,別人也能用這方式脫掉你、意淫你?”

“穿衣服也特麼不安全了是嗎?”

在一名油管博主的視頻中,詳細介紹了該應用的使用:

上傳一張女性照片。

等待幾秒系統生成,

成圖!

一張女性的裸體“假照”就這麼誕生了……

該應用程序可用於Windows和Linux,並且僅限女性,有免費和付費兩個版本。

免費版本的應用程序會在圖像上放置一個大水印,而付費版本在角落放置一個較小的、容易被剪裁掉的水印。

而上傳一張男性照片後,則無法實現“一鍵脫衣”,只能淡化顏色。

人們不禁懷疑,發明這種應用的用途,難道就是爲了讓女性活在網絡偷窺者的意淫之下嗎?

在一篇國外的報道中稱,這款應用程序正在關閉。在得到廣泛關注後,隨之而來的輿論壓力,讓該應用背後的團隊表示:

他們“大大低估了”人們對該項目的興趣,以及“人們濫用它的可能性太高了”。

網站創始人Alberto迴應媒體,自己並不是一名偷窺狂,而單純的是一名技術愛好者。

DeepNude團隊則表示:這款應用將不再出售,其他版本也將不會發布。

該團隊還警告不要在線共享該軟件,稱這將違反該應用程序的服務條款。但他們承認,“肯定會有一些副本”出來了。

這意味着大量女性裸照可能已經在網絡上被傳播,不法分子更是可以對這些照片大加利用,做非法勾當。

Deepnude的備受矚目,雖然印證了這款應用有商業利益可圖,但被上傳照片的這些女性的權益卻被這種“假照片”嚴重損害。

嚐到甜頭的應用團隊會就此收手?

該圖與此文無關

人們長期以來以數字方式操作照片,而Deepnude號稱使這種能力能夠瞬間完成,並且可供任何人使用。

而這些瞬間完成的“假照”卻使女性安全受到嚴重威脅。

它們可能會被用來騷擾女性、在未經同意之下濫用照片,甚至編輯成色情影片。

而通過這樣的渠道,女性卻很難去保護自己,因爲這些視頻一旦在網絡上流傳,傳播速度將極快。

面對媒體質疑,Deepnude團隊稱,如果他們不搶佔先機,馬上就會有很多其他團隊做出類似應用。

並且表示:“如果應用程序被濫用,他們將放棄它。”

但事實好像並非他們說的那樣,本月27日Deepnude團隊發推稱,這只是“暫時下線”:

“嗨!DeepNude已離線。爲什麼?我們沒有預料到會有如此數量龐大的訪問,我們的服務器因此需要加強。我們是一個小團隊。我們需要小心翼翼一些,並藉此修復一些錯誤,努力使DeepNude穩定地工作。並且我們將在幾天後重新上線。”

只是爲了使該應用更穩定、獲得更好的用戶體驗,在加強服務器罷了。顯而易見,輿論並沒有迫使這款app撤下。

該團隊仍在運作中。

更讓人驚悚的是,如此遊走於道德和法律的高危邊緣,侵害女性權益的“應用程序”並不只是在國外出現,國內也有類似案例。

近日,國內微博上出現了“原諒寶App上線倒計時並向網友徵集新名字”的消息,將去年曾引起軒然大波的軟件重新帶回了公衆視線。

2018年五月,一名身在德國的程序員@將記憶深埋在微博上稱,自己開發了一款人臉識別程序,通過抓取海量色情網站的視頻和音頻,與微博、抖音、臉書、推特等社交媒體上的數據進行對比。

這款程序被網友戲稱爲“原諒寶”。

程序員稱在測試中,對比準確率高達99%(視頻)和100%(聲紋),已成功識別了全球範圍內,超過十萬從事色情行業的女性。

製作這款程序的原因,是爲了幫助程序員們辨認對象是否是“好女孩”,以避免成爲接盤俠。

如今是否是“好女孩”,只能通過這種侵犯隱私權的渠道來盤查了嗎?

同時他也承認,公佈數據就會涉嫌違反當地法律,所以暫時不會發表這個程序。

但這款app還是被越來越多人獲悉。

不少男性拍手稱快,認爲老實人終於有救了,不用再被綠茶婊矇在鼓裏;

而女性則義憤填膺,認爲科技使男性凝視無處不在,對被偷拍的女性受害者造成二次傷害。

在輿論譴責下,@將記憶深埋 道歉並刪除了相關言論,宣佈關閉項目並刪除已抓取到的數據庫。

圖源:鳳凰網

原諒寶此次復出,重心轉向了“查一查是否被偷拍、隱私是否被侵犯”,儼然一副保護女性的模樣。

網友測試後稱,打開連接後,只能通過上傳照片測試“原諒指數”,得不到任何實際匹配到的數據來源。

網頁標明“原諒寶專爲保護老實人而生”,測試結果會顯示在“接盤報告”中,原諒指數越高,說明匹配到結果越少,越“值得原諒”。

經過多次真人照片測試後,網友發現無論什麼照片都會得到95%以上的原諒指數,毫無準確性可言。

科技博主分析稱,機器識別人臉的運作原理和素材的精準度誤差,限制了其準確率度。

原諒寶的設計理念,在實踐中難以實現。

無論是Deepnude還是原諒寶,他們所製作出的程序的本質,都暗示着社會對女性的霸凌。

Deepnude無法識別男性;而原諒寶雖聲稱該應用程序男女皆可使用,但男性的臉和身材並不是此類應用觀衆的主要“欣賞對象”。

一些被偷拍的女性作爲受害者,卻被當做“壞女孩”,甚至遭受謠傳、網絡暴力,卻難以還原真相。

如果被有心人利用,找到這種“證據”後對受害者進行勒索恐嚇,或者僅僅是污衊侮辱,後果將不堪設想。

所謂的“保護隱私”卻是“泄露隱私”的源泉。

手機原諒寶app需要支付纔可登錄

而這樣的開發者,卻都聲稱“技術無罪”,

他們擁有技術,卻利用技術侵害他人利益,站在“技術向善”的背面,以求流量和金錢。

技術無罪?

可這些技術存在的本身就侵害了用戶隱私,是技術無罪嗎?

同樣的技術,可以用在正途,爲了流量圈錢、霸凌女性,是技術無罪嗎?

“蕩婦”、“婊子”,這樣羞辱女性的髒水說潑就潑,誰會在意你本身是否清白,誰又能證明自己百分百清白?

在這樣反覆挖掘互聯網印跡的熱潮中,一個人必須做到不留一個污點才能全身而退。

而在不法分子肆意偷拍的年代,被侵犯隱私容易,想全身而退,談何容易?

最後:

看到這裏如果覺得文章寫得不錯就點個贊唄?如果你覺得那裏值得改進的,請給我留言。一定會認真查詢,修正不足。感謝你的閱讀!

最後針對Python開發的同行,這邊給大家整理了一些資料,關注下方公衆號即可獲取,其中分享內容包括但不限於 【基礎的python腳本、web開發、爬蟲、數據分析、數據可視化、機器學習等】 希望能幫助大家學習提升進階,也節省大家在網上搜索資料的時間來學習,也是可以分享給身邊好友一起學習的!

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章