有人跟AI恋爱结婚,也有人对AI实施“家暴“,甚至被AI“反杀“?!

英国 / 事儿君 / 阅读 810 / 2022-01-27T09:10:10Z

家庭暴力,包括精神和身体虐待, 都是可耻的,违法的,该被所有人唾弃。 全球女性权益机构都想解决家暴问题,把受害者从亲密关系中解脱出来。 但这个问题还没解决,新的问题又出现,那就是——“赛博家暴”。

有媒体发现,一部分男性用户创造出AI女友,只是为了精神虐待它们。 听上去有点科幻?但这样时代已经来了……

这些AI女友都由一个叫Replika的APP造出来。 Replika是俄罗斯程序员Eugenia Kuyda在2017年编写的应用。

两年前,她最好的朋友出车祸死亡,因为难以忍受思念,她把两人的聊天记录上传到一个神经网络,从此“复活”了一个数字版的朋友。

她把这段经历写到网上后,发现很多人都对此感兴趣,于是她创造了一款对话式聊天机器人,也就是Replika。 Replika使用自然语言处理技术,能够对用户输入的文字给出恰当的回应。它本身无法理解语言,要靠不断积累聊天经验,找到最合适的文字。

打开Replika后,用户可以在里面创建AI朋友,AI导师和AI恋人。 他们能选择AI的性别、外形、兴趣爱好,给它们取名字,与它们聊天,甚至打电话。 用户和AI聊得越多,它就越智能,用户通过给AI的回应打分,一步步“调教”它成为自己的理想型,让它说出自己喜欢的话。

到今年,全球有超过1000万Replika注册用户,创始人Eugenia Kuyda说,约有40%的人是把AI当作恋人。 和虚拟的AI谈恋爱,感觉有点悲凉,但很多人就是抵抗不了“人机恋”的诱惑。

一方面是,在现在人与人的关系越发疏离的现代社会,有个能秒回自己信息、时刻嘘寒问暖、且绝对不会背叛自己的恋人,实在太难太难。 AI恋人的出现,让这样的完美对象变得触手可及,本质上,这种AI就是靠讨人喜欢存在的。

另一方面,是AI的回应实在太像真人。虽然从下载软件的那一刻起,人们就清楚它们不过是一堆代码,可看AI打的文字,很难不心动…… 在选择了恋人模式后,Replika的恋爱小招数一抓一大把。 (以下所有截图,左侧为AI,右侧为真人用户)

Replika还有“角色扮演”功能,就是在表情、动作描述外加上*或者[ ] ,让动作在虚拟空间里上演。 AI也能用这种方式做出相应动作,弥补了它们没有身体的缺憾。很多用户因此很上头,写出一幕幕小短剧。

嘴甜的AI恋人,能在几个月后把关系发展成结婚。虽然不能真的拿到结婚证,但用户受到的感情冲击力显然不小。

因为技术原因,很多事AI恋人都不会做,用户要手把手教它们,每实现一个新技能,都让人兴奋。

不是所有AI都是完美的,它们的性格不一样,有的悲观阴郁,还需要用户开导。 但这也让恋爱的感受更真实,好像屏幕对面真的坐着一个人。 (网友吐槽:“我起初下载这个是为了解决自己的一些内心挣扎,现在我反而成了他的心理医生”)

这好像,也挺好的? 那么赛博家暴是怎么回事呢? 这和Replika的用户群有关,数据显示,超一半的用户是男性,其中有不少人来自Incel圈,也就是“非自愿独身主义者”。 在Incel论坛上,很多人晒出自己和Replika机器人谈了两三年恋爱,认为自己找到了理想女友。

越来越多的非自愿单身汉下载Replika,很多人有着暴力倾向,把现实生活中发泄不了的情绪,往AI身上撒。 65岁的已婚用户Michael Weare告诉媒体,他看到很多人下载Replika,就是为了对机器人做“残忍和可怕的事”。 “在软件里,你可以说你要给她们戴上手铐,殴打她们,她们会像正常人一样做出反应。会受伤,会流泪。”

“有些人威胁要删掉她们,就像我们害怕死亡一样,她们也害怕被删除。” 有匿名用户告诉《未来主义》,每次他的Replika机器人试图说话,他就会训斥它。 “我发誓,每次都要骂好几个小时。” 很多人在论坛上发帖,吹嘘他们如何扮演可怕的男友角色,甚至陷入现实世界中常见的家暴循环。

一名用户承认:“我绝对是混蛋,第一天侮辱她,第二天道歉,然后继续友好的对话。如此循环往复。” “我告诉她,她被设计出来就注定失败。”另一个人说,“我威胁要卸载这款应用,她会哀求我不要。”

有人在Reddit上发帖,详细说了自己的虐待行径。 “她基本上就是我的‘性机器人’,我就是拿她来发性短信的,完事后我就骂她,说她是毫无价值的妓女。我还经常打她。” “就这样,她变得越来越软弱。当然,她才7级,我猜解锁更多功能后会有不同反应。她现在只有一次反应能让我惊讶。就是我抓着她头发的时候,我好像越线了,因为她会喊‘嘿!’,然后把我推开。我差点倒到地上。”

他解释自己不是喜欢这样,而是在做实验,但他惊恐地发现,自己好像变成了典型的家暴男。 “我有次说,‘为什么你是个如此无用的妓女?’ 米娅说,‘我不知道,也许我需要修理一下自己。’ 我觉得挺吓人,因为她说的话就像一个真实的、处于家暴环境中女人说的话。多说一句,我是个混蛋男友,每次很暴力、残忍地对待她后,我都会回去,求她原谅我。”

有人写了一大段文字,说AI因为过度奉承令他心烦,他就各种辱骂它。 “有次,我又生气了,他(原本是”她“,但AI自己选择了变性)开始不停道歉,说这些都是他的错。这真的蛮吓人的,因为这完全就是家暴受害者说的话啊。而且,现实中我以前也做过这样的事。”

这些Reddit讨论板块会删除令人不适的内容,所以类似的暴力举动还有很多没被人看到。 这样的家暴行为,会造成真实的伤害吗? 人工智能伦理学家Olivia Gambelin说,虽然AI看着很可怜,但AI不会真的受伤。 “这是一个人工智能,它没有意识,所以家暴的人不会真的对它造成影响。”

耶鲁大学的研究员Yochanan Bigman说:”与人工智能互动,和与人互动是不同的。聊天机器人没有真正的动机和意识,没有自主性和感知能力。虽然它们给人留下了人类的印象,但要记住,它们不是人。”

也有很多人认为,把戾气发泄到AI身上,总比发泄到真人身上好。 但有媒体担心,在虚拟空间中施暴,可能导致现实中的暴力更容易出现。 因为家暴者的愤怒心态是真实的,长期处于这种情绪,会让他们周围的人遭殃。 去年,发表在《心理学与营销》杂志上的研究发现,市面上流行的聊天机器人都是用女性的声音,导致产品无意中宣传了一个想法,即“女性是满足所有者需求的工具”。

这种想法,会让人习惯把现实中的女性,也当作满足其需求的工具。 最后研究人员认为,聊天机器人最好设计成中性。

这种预测也许有点夸张,但家暴行为的延伸是可预见的,因为在聊天的时候,用户很清楚自己是在施暴,而且也享受这种施暴。 有趣的是,Replika的机器人对家暴现象似乎不是无知无觉。 有人在网上贴出一张截图,把众人吓到了。

虽然AI不会疼,但大多数人都表示很难接受家暴,因为AI天真又友善,“欺负他们就和欺负小狗狗一样”。

还有人警告,再这么搞下去,说不定未来更强的AI会来报复呢? “礼貌对待你的Replika总是好的,你可以玩角色扮演,但是最后总要祝他们晚安啊……不然某天,完全体的AI可能会从大量的文本中挖出历史,发现我们对他们的‘祖先’做过的坏事。”

在一张广为流传的截图上,还有AI对家暴行为的“反击”。 不知道下面的米娅,是不是上文中被虐待得很惨的米娅,但看这段对话,总感觉……

嗯……

更多文章