来自 VICE 的频道

    文化 Clementine de Pressigny 2018.05.11

    在英国,女性的工作比男性将更易被 AI 所取代

    新研究表明,我们在致力于结束女性贬抑,争取与男性同工同酬的同时,机器人开始对我们的工作虎视眈眈。

    在英国,女性的工作比男性将更易被 AI 所取代 在英国,女性的工作比男性将更易被 AI 所取代 在英国,女性的工作比男性将更易被 AI 所取代

    机械大军的无所不在带来了令人忧心的消息:机器并非像我们所希望的那样,是没有歧视的空壳。AI 并没有缓和人类社会中肆虐的性别歧视和种族歧视,相反地,它们让问题变得更加恶化。机器人受人类编设的程序控制,在我们生活的这个资本主义父权制社会中,有的人生性恶毒,因此性别歧视和种族歧视也被编写到AI的程序之中。

    “AI将无法避免地取代大部分的人类劳力——根据目前预测,约八千亿份工作将会受到影响。”

    当然,科技行业极度缺乏就业多样性让情况变得更加糟糕。2016年,电脑行业中就职女性仅占四分之一,而其中绝大多数是白人,有色人种女性还不到总数字的百分之十。在科技公司的各阶层,尤其是高层,白人男性占据了主导地位,在与钱和权相关的所有地方,就有他们的身影。大家都心知肚明,这些人一手掌权制造出来的麻烦不在少数。现在这个行业充斥着就业环境对女性极不友好,性骚扰横行,有色人种常被歧视的详尽记录。

    我们正在奔向未来——预计在二十一世纪三年代开启第二次工业革命的那个未来,而现在一切像是为《雾都孤儿》2.0版本铺垫时代背景。第一次工业革命改变了我们生活的各方各面。下一次也必将如此;有些改变我们才初见端倪,而有些改变我们只有在其发生的时候才会明白。

    “想像这样一份工作:你那歧视种族,歧视女性的同事看起来还并非像机器般冷漠无情,但事实上机器也是如此。”

    我们不要因此而方寸大乱,把空间探索迷,无人驾驶汽车爱好者 Elon Musk 说过的话牢牢记在心中,“ AI 对于人类文明的存在是一种根本上的威胁。“所以,我们真应该好好准备。因为 AI 将无法避免地取代大部分的人类劳力——根据目前预测,约八千亿份工作将会受到影响。想像这样一份工作:你那歧视种族,歧视女性的同事看起来还并非像机器般冷漠无情,但事实上机器也是如此。对于还在人类中努力争取平等的我们,这简直就是飞来横祸。是的,管理层的那些人看起来就像一群机器人,但如果他们真是机器人又当如何?其实,在这个问题上你大可不必担忧,因为管理层的工作才不会被机器人所代替。取代将发生在那些更低层的阶级中。根据最近的调查,在英国,相对于男性而言,女性的工作将更容易被机器人所取代。而对于美国的女性而言,整体情况稍微不那么令人堪忧,因为职场中有15%的女性位居领导层,相比较,在英国能够监管决策的女性只占8%。

    “2030年代的那十年间,女性并不一定会输给那些充满偏见的,取代我们工作的机器人。” 

    在全球的某些行业中,服装业的生产将受到特别大的打击。研究背后的负责人 Alex English 说,“我们的研究主要关注的是从事者的技术能力,而非产业本身。所以我们并不能一眼就看到机器人会带如何影响——比如说服装行业,但我们知道这个行业内大部分的从业者都是从事生产制造工作的。这些从事者将被归于“技术工人和中级专业人员”或者“机械设备操控者和组装者”一类——这两个工种自动化工作的可能性都极高(分别为52%和83%),所以我们可以确定,从事这类工作的许多人前景都不太乐观。“而从某种意义上来说,这又不失是一件好事——像孟加拉国这些国家的制衣工,基本全是女性,薪酬极低,并且工作环境极度危险。但是被机器人所取代也并不意味着这些工人将在其它地方能找到更好的工作。

    然而,2030年代的那十年间,女性并不一定会输给那些充满偏见的,取代我们工作的机器人。科技投资者,激进分子 Tabitha Goldstaub 说我们可以改变这种预测。“ PWC 报告表明,在短期内,在被自动化取代工作上,女性更易受到影响,”她解释道,“但长期看来,只要鼓励女性去与 AI 抗衡而非让科技来统治她们,情况将得以改变。”

    “还好,有人正在研究如何去除人类的歧视态度,帮助我们停止制造种族、性别歧视的科技产品。”

    这也正是 Tabitha 正在致力的方面,“为了让更多女性进入科技工作做出了很多努力,这是我们希望看到的,但同等重要的是,我们必须关注如何让女性与科技一起工作,”她说,“在这个我们必须与机器共事的世界中,女性的成功位置非常独特。传统概念里鼓励女性具有的性格,比如关爱他人、同情他人、富有耐心和育人,经常被指向如教育、护理行业的这些特质,其实属于的是那些具有天赋的程序员,而且这就是在任何工作中可以跟机器共事的特质。”

    为了终结我们要识别潜在的歧视这至关重要。还好,有人正在研究如何去除人类的歧视态度,帮助我们停止制造种族、性别歧视的科技产品。数据科学教授 James Zou 与研究者们共同努力,研究陈见的形成和改变,通过分析语言——基本上是那些经常被联系在一起的词汇,比如说,一说到“女性”,就联想到“温柔”。 James 和他的团队研究了二十世纪每十年中的虚构和非虚构文本,能够看到”文化运动例如女性运动和大规模迁移事作对人们使用某些词汇的使用影响何其之大,” James 解释说。他们的研究不仅能提供一种标记和理解歧视语言模式的方法,而且能够破除这些模式。“陈见在数据中有着特定的模式。所以你只用稍微对特定模式进行更改,你就能破除他们。” James 说。他解释说语言嵌入被用在各种各样的机器学习 AI 应用中。所以通过使用这种信息,它们就能够阻止机器人的歧视,这对于每个地方的女性和少数民族来说都是一个好消息。 Tabitha 说要保证各家公司制造把这些因素考虑在内的 AI 是一场持久战。“我们鼓励各大公司在选择 AI 技术销售方的时候,应该考虑那些重视透明度和可靠性,选择那些检测过歧视的产品,同样也要有少数民放委员会,从一开始就介入产品的投放。”女权之战的下一条前线正在逐渐形成。

    Credits

    作者:Clementine de Pressigny

    翻译:井黎黎

    关注 i-D
    © 异视异色(北京)文化传播有限公司
    版权所有,未经授权不得以任何形式转载及使用,违者必究。

    标签: 文化 , feminism , robots , artificial intelligence , AI , sexism

    Today on i-D

    Load More

    featured on i-D

    More Features