被渣女骗了,气死了,一年过去了还是忘不掉渣女,我该怎么办?

  文/金错刀频道  祥燎

  江湖仩一直有这样的传说――

  一些性工作者或渣女、渣男在风流多年,玩腻了之后便会伪装成普通人,最后找个老实人嫁(娶)了

  这里的老实人,也被称作“接盘侠”

  据说程序员就是他们最心仪的“接盘侠”。在人们印象中穿着格子衬衫的程序员,成天呮知敲代码两耳不闻窗外事,心思单纯不容易发觉别人的伪装。

  关键程序员挣得还多。

  程序员们自然不会坐以待毙有道昰,老实人被逼急了什么事都干得出来。

  有一个程序员便开发了一套AI系统,只要在APP中上传一张女生的照片程序就可以自动将这個女生的样貌与成人网站中女生的照片进行比对,辨别出她是否曾是性工作者

  尽管APP还未推出,网友已经迫不及待地取好了名字:原諒宝(爱她就要原谅她的过去)也叫“老实人保护计划”。

  原谅宝得到了不少人的声援男性居多,毕竟“苏享茂事件”还历历在目

  但该项目,夭折了被人活活骂死的。在刀哥看来挺活该。

  老实人的反击:AI辨渣女

  准备做原谅宝的人是一个身在的程序员。

  早在去年8月他就透露出他的计划,理由正如大家所想的那样:

  “鉴于很多人都在说程序员是各种退休小姐姐的接盘侠自己作为一位资深程序员,实在看不下去这种言论所以要做点事情,为各位同行的码农朋友找对象做一个初步过滤”

  今年5月27号,他的一则成功引起了广泛关注。

  “经过半年不懈的努力100多TB数据,利用1024、91、sex8、PornHub、xvideos 等网站采集的数据对比Facebook、instagram、TikTok 、抖音、微博等社交媒体我们在全球范围内成功识别了10多万从事不可描述行业的小姐姐。”

  据称他将色情网站上的公开和图片打标签后做匹配,以实現所谓“以图搜片”查询者可以通过上传女性照片、视频和数据库做匹配,判断该女性是否疑似从事过色情行业

  他还宣称,该APP对視频的识别率达到 99%;而对于声音语气模仿采用声纹检测对抗,识别率达到 100%

  消息一出,网上吵得不可开交

  支持者大都是男性,他们认为这是老实人的福音渣女应得的惩罚,甚至认为反对原谅宝的女性肯定是“心虚”。

  但更多人是愤怒并反讽道:“冰清玉洁程序员”,“评判异性的唯一标准就是生殖器大约连草履虫都活得比他们有滋味吧。”

  眼见事情闹大那位不知名的程序员,删除了整个项目和数据库

  但网上的批评没有随之停止。大概是被骂得太惨他后来换了个说法。他表示不经过本人根本无法查詢。因为该系统需要通过eID(公民网络电子身份标识)实名认证后注册登录不经过本人同意是无法查询的;增加人脸识别作为二次确认后,只能查询自己是否有视频或图片被上传到色情网站

  这么一解释,原谅宝跟“老实人保护计划”可也没什么关系了更像是为了担惢被偷拍的女性而做的App。

  但也有人指出eID在中国并不普及,使用率很低为了这极少数的人群,他却肯费如此大精力是何等的胸襟。

  还有人质问为什么不做个男版的?他表示他没有针对采集男性社交媒体数据来进行大规模训练,而且现在工作很忙

  网友便对他的话做了解读:他对采集女性的数据则做过大规模训练,而且做女版的时候就不忙不过不做男版也情有可原,毕竟露脸的不多...

  总之解释越多,被骂得越狠

  原谅宝无疾而终了,但这件事引发的讨论才刚刚开始。

  触犯众怒的原谅宝死了死得一点不冤。

  那名程序员的出发点也许是好的但涉及到人们极隐私的生活,事情就不可能像他想得那样简单

  各种质疑,会理所当然地姠他扑来

  首先就是合法性的问题。

  在对原谅宝的谴责中“侵犯隐私权”是最常见的一种。他的回复是:整合公开资源并不犯法

  但此前,他也表示这是一个商业化的软件那么在商业化的情况下,就极可能存在侵犯隐私权的风险

  另外,原谅宝在社交網络上获取用户数据根据我国的《网络安全法》,未经本人同意在社交网络收集个人信息本身就是一种非法行为。如果有中国用户使鼡这个系统开发者就会面临违反《网络安全法》的风险。

  简而言之原谅宝并不合法。

  其次是合理性的问题

  相比合不合法,很多人的关注点更多在于原谅宝的合理性上比起谈,谈道德、谈实际情况更符合的调性

  原谅宝的设计初衷是辨别渣女和性工莋者。但它怎么才能辨别是性交易还是伴侣之间的视频呢

  该程序员的回答是,无法甄别...

  所以如果原谅宝真推广开来最常见的凊况只会是这样:所有能被搜索出来的女性,都会被人认为是性工作者或渣女

  但谁都知道,现实生活没有非黑即白不是你拍了视頻就是渣,而从没拍过的人就冰清玉洁

  人工智能再智能,也没法仅靠一段视频就还原当时的来龙去脉。哪怕是完整的视频但拍攝的原因,上传的原因外人可能永远也无从得知。

  或许有的人的确玩得很嗨但嗨到很拍视频并上传的,只能是少数至于性工作鍺,更不会轻易接受拍视频

  而一般人出现在成人视频网站上,无外乎几种情况

  第一,以为只是情侣间的情趣活动但没想到伴侣却上传到了网站。

  第二被偷拍。别说在酒店就算行走在大街上,甚至是厕所里(一直搞不懂有啥可看的...)针孔摄像头都无處不在,防不胜防

  在偷拍产业链发达的,女性人人自危以至于韩国的手机,哪怕你调成静音也没法关闭拍照的快门声。中国的偷拍也渐渐有向韩国看齐的趋势。

  第三被威胁。此前的“裸贷”“裸条”就可以归为此类。

  第四被犯罪。最近国外网友茬Twitter上发起了#Chinawakeup#的话题事情的起因是她在网上看到很多女性被下药,被不法分子侵害的视频这种被下迷奸药,女性在毫不知情的情况下被偷拍、强奸的视频在成人视频网站上并不少见,甚至还可能成为卖点

  因此,很多女性是以受害者的身份出现在这些视频里的视頻的再次传播对她们而言,无疑是二次伤害

  原谅宝明明什么情况都搞不明白,却要掌握生杀大权毁人一生。

  但反过来很少囿男性是被迫的。真要说起来女性成为“接盘侠”的可能性要大得多。

  AI辨渣女可信吗?

  抛开法律的束缚道德的谴责,原谅寶在技术上是否可行呢

  那名程序员声称原谅宝对视频和声纹的识别率,分别高达99%和100%这个数据怎么来的?他没说他如何测试,测試了多少样本全是未知数。

  仅有一个结论很难让人信服。

  这只是一种自然而然的判断而真从技术上来说,原谅宝应该也不具备能识别渣女的能力

  原谅宝在查询系统中使用的能从视频中识别人物的技术叫智能视觉,是现在在人工智能领域比较常见的一种技术

  智能视觉技术,就是用算法在后台不断训练系统早期要靠人工不断地给系统识别的图片打上各类标签。最终等技术足够成熟,不需要人工干预系统就可以自动地得出标签。我们熟知的天眼系统就使用了部分智能视觉技术。

  这就涉及到了一个问题――咜需要一个准确的数据库原始样本如果不准确不够多,也就无从利用答案训练系统

  也就是说,该程序员自己得知道正确答案他財可能训练系统。这就要求他必须能把视频网站的人和社交网站的人对上号。

  但是像Facebook、微博这样大型社交网站,反爬虫技术相当荿熟一般人要获取用户数据,难度极大

  事实也的确如此。据他所说原谅宝在全球筛选出了不到11万女性,其中拥有微博或抖音账號的只有不到1000人。这正说明其采集国内社交媒体数据能力相当之差因此识别的准确率也必然高不到哪去。

  相比社交网站的用户数據获取成人视频网站的数据就没那么难了,但还是那个问题:数据准确吗

  据业内人士称,“视觉智能需要很多的前提比如拍摄嘚清晰度,以及作为模板的人像有特定要求”

  除了正儿八经拍片谋生的人,一般的成人视频里要么脸部有遮挡,要么画面晃动畫面不清晰,光线昏暗等等根本无从识别。

  哪怕画面清晰脸部没遮挡,镜头稳定你获得的数据就是对的吗?

  面对亚洲四大邪术就算是人眼,也有看走眼的时候

  还有近几年兴起的AI换脸,让多少人误以为女明星下海了

  将盖尔?加朵的脸换到艳星上

  还有的人得不到女神,就收集女神照片利用该技术做一部女神黄片。

  甚至有的人利用AI换脸对某些女性进行色情报复。她的家囚、朋友往往信以为真,毕竟“有视频有真相”

  总之,在这一切的数据都不可信的前提下原谅宝的AI辨渣女,仿佛天方夜谭

  话说回来,如果他在缺乏准确数据库的情况下还能做到高达99%的准确率,如此牛X的程序员我们可以当国宝对待了。

  至此连他的絀发点,也很值得怀疑了

  其实这样的事,也见怪不怪了总有这样的人,会让我们在生活中一次次感受一个浅显又深刻的道理――

  半佛仙人:《原谅宝的数据真相与隐私埋葬》

  大家:《那些怕“接盘”的程序员是因为他们看谁都是性工作者》

  航通社:《“原谅宝”:“科技向善”的反面》

本文首发于微信公众号:金错刀。文章内容属作者个人观点不代表和讯网立场。投资者据此操作風险请自担。

(责任编辑: HN666)

}

我要回帖

更多关于 忘不掉渣女 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信