你可能自己也知道这一点,但很多人都认为,对人工智能(AI)形成一个明确的看法越来越困难。
人工智能可以非常有用(ChatGPT),也可以被过度炒作(也是ChatGPT)。
它可以改善道德决策,也可以导致广泛的系统性歧视。
在任何给定的时间,在不同的司法管辖区,它可能是合法的,也可能是非法的。
然而,最令人困惑的是,“人工智能”一词意味着感知,但它实际上只是指用于理解数据的一大类统计技术。
是的,它比终结者和HAL 9000要平凡得多,但不要被愚弄了——人工智能也可能更加阴险。
在一些领域,尚无定论
别误会我。随着人工智能在招聘领域的发展和运作,它已成为人才获取和更大的人力资源技术堆栈的合法增值。
如果你考虑人工智能在Gartner Hype Cycle中的位置(方法让你了解一项技术或应用将如何随着时间的推移而发展),许多人工智能技术已经成熟,超过了早期的炒作阶段,正越来越接近启蒙阶段。在这里,它们将悄然集成到标准流程中。
然而,有些类型的人工智能还处于其生命周期和炒作周期的早期(例如,虚拟世界、生成的化身、因果人工智能、大型语言模型),它们的发展方向还不得而知。
法律的发展
在没有美国联邦立法的情况下(注:不具约束力)白宫人工智能权利法案蓝图不算数,但是欧盟人工智能法案可能最终成为美国和其他地区的典范),全国各地的州和城市都在推进自己的监管人工智能的尝试。
最迫在眉睫的新立法是在纽约市自动化就业决策工具这项法律将在几个月后的7月5日实施。
在这里,它将要求受影响的公司聘请独立审计师进行所谓的偏见审计;并在他们的网站上发布不同的影响计算结果,并提前通知候选人使用人工智能工具。
然而,这项立法仍在讨论中而且,就目前的情况而言,在符合资格的工具范围中,它相当狭窄自动化雇佣决策工具-或aedt。
标准化是必要的
虽然这些新的人工智能法律是有帮助的,但它们最终是过渡性的。
该行业真正需要的是联邦层面的标准立法,而不是每个大城市和州的一大堆略有不同的法规。
此外,这可能会引起争议,但所有这些新的人工智能法律都试图规范招聘过程中涉及人工智能的任何部分,而不是人工智能结果整个过程。他们认为人工智能是主要问题,而主要问题一直都是这样人类会做出有偏见的决定.
我们需要明白,人工智能可以减少偏见,但它需要得到适当的发展。
纽约市的AEDT法律要求公司公布差异影响计算结果,供候选人查阅,这可能会导致一些人得出这样的结论:1)微小的、微不足道的差异是歧视的证据;2)这些差异本质上是非法的或歧视性的。
这两点都有可能,但也有可能不是。主要的一点是,面试者不会被告知足够的信息。
最终,人工智能工具的输出将与人类的决策相结合,大量研究表明,人类的决策将具有不同程度的内在偏见。
所以,真正重要的是整个招聘决策的结果,而不是过程中每个部分的结果。
文章继续如下
组织应该透明其招聘池的人口构成,以及与当地申请人的人口构成相比,这种构成是否公平。
将招聘过程的每一步(无论是否包括人工智能)都立法,忽略了最重要的一点,即整体决策才是最重要的。
过程集成
我们的调查研究显示,许多人力资源主管甚至不知道他们的公司是否在招聘过程中使用了人工智能。
考虑到存在的各种各样的AI,加上它经常被融入其他功能,这并不奇怪。
但正如上文所述,真正重要的是如何公平、快速地招聘到更优秀的候选人。
人工智能曾经被视为一种工具的好处,现在它可以被视为对该工具有贡献的另一种技术。
这并不意味着人工智能应用程序不值得特别关注——毕竟,它们的操作通常非常复杂和不透明。
但是,尽管我们可能会试图掩盖人工智能在复杂系统中的存在,但至关重要的是,我们要保持警惕,确保这些系统产生净积极影响。
说到警惕……
虽然用于招聘的人工智能正变得越来越文明和规范,但更广泛的人工智能技术领域仍在以惊人的速度发展。
人工智能已经帮助发展核聚变当然,它也是OpenAI的ChatGPT和谷歌新宣布的竞争对手Bard的前沿和中心。
目前还没有聊天机器人具有感知能力,但如果你不这么想,也是可以原谅的。问这些机器人一些复杂的问题,你会惊讶于它们的反应的连贯性、结构和总体正确性。
考虑到这一切,我们继续推动人工智能工具的透明度和控制至关重要。
随着时间的推移,它们将蚕食人类的责任和自主权,而且它们已经证明,在缺乏仔细制衡的情况下,它们很容易成为偏见载体。
尽管人工智能领域存在复杂性,但现实情况是,无论是在合法性方面还是在流程整合方面,许多人工智能技术和用途都将更加文明。
不要被人工智能融入我们世界的表象所催眠,因为现实恰恰相反。