王中王心水论马公资料大全,王中王100期必中六肖,760123王中王网站高手论坛,www.588699.com

人工智能如何确定您是否找到工作 获得贷款或最终入狱

发布日期:2019-10-18 20:21   来源:未知   阅读:

  •   几乎每个行业的企业都部署了人工智能,以使员工的工作变得更简单,消费者的工作也变得更容易。

      计算机软件教会客户服务代理商如何变得更富有同情心,学校使用机器学习来扫描校园内的武器和大规模射击者,医生使用AI来绘制疾病的根本原因。

      网络安全,在线娱乐和零售等行业以革命性的方式将这项技术与大量客户数据结合使用,以简化服务。

      尽管这些应用程序看起来无害,180传奇网站-英雄合击sf发布网星,甚至可能有所帮助,但AI的质量与输入的信息一样好,这可能会带来严重的影响。

      您可能没有意识到,但AI在某些情况下可以帮助您确定您是否有资格获得贷款。正在准备中的产品可能会使警察阻止您,因为软件将您标识为其他人。

      想象一下,如果街上的人可以给您拍照,然后计算机扫描数据库以告诉他们有关您的所有信息,或者当一个坏人通过TSA清理干净时,机场的安全摄像头是否在标记您的脸。

      当本应增强便利性的技术将人为的偏见纳入框架时,这就是现实世界中的可能性。

      创新执行副总裁埃里克赛德尔(Eric Sydell)表示:“人工智能是一种超级强大的工具,它与任何真正强大的工具一样,可以用来做很多事情,其中​​有些很好,有些可能有问题。在Shaker International负责开发支持AI的软件。

      Sydell说:“在像这样的任何新技术的早期阶段,您会看到很多公司试图弄清楚如何将其引入他们的业务中,并且有些公司做得比其他人更好。”

      人工智能往往是一个包罗万象的术语,用来描述通常需要人工操作的计算机执行的任务,例如语音识别和决策。

      不管是否有意,人类都会做出判断,这些判断可能会渗入为AI遵循而创建的代码中。这意味着人工智能可能包含隐含的种族,性别和意识形态偏见,从而引发了一系列联邦和州监管工作。

      6月,弗吉尼亚州众议员Don Beyer对众议院拨款法案进行了两项修正,以防止联邦资金通过执法手段覆盖面部识别技术,并要求美国国家科学基金会向国会报告AI的社会影响。

      “我认为我们不应该禁止所有的人工智能投入全部联邦资金。我们只需要考虑周全,” Beyer告诉《今日美国》。他说,计算机学习和面部识别软件可以使警察错误地识别某人,从而在极端情况下促使警察拿起。

      贝耶说:“我认为不久,由于实时性的考虑,我们将要求禁止在人体凸轮上使用面部识别技术。”“当数据不准确时,可能会导致情况失控。”

      AI用于预测分析,其中计算机显示一个人犯罪的可能性。尽管这在汤姆克鲁斯科幻小说《少数派报告》中还没有达到“犯罪前科”警察部门的程度,但该技术在提高安全性还是仅仅维持不平等方面一直面临着审查。

      根据AI治理中心和牛津大学人类未来研究所的一项研究,美国人对AI应用表示了不同的支持,大多数(82%)同意应该对其进行监管。

      大量研究表明,自动化将破坏人类的工作。例如,牛津大学的学者卡尔本尼迪克特弗雷(Carl Benedikt Frey)和迈克尔奥斯本(Michael Osborne)估计,到2030年代中期,美国47%的工作将面临自动化的高风险。

      该技术可以将在特定工作环境中具有理想技能的员工与可能因为忙碌而无法筛选人员的雇主相匹配。

      Shaker International使用从测试,音频采访和简历中收集的数据来预测一个人在工作中的表现。

      Sydell说,“有意义的信息”包括“一个人的工作方式,他们将待多长时间,他们是销售业绩最好的人还是高素质的工人”。

      Sydell说,使用AI,“我们可以摆脱运行不佳或多余的流程。通过在整个流程中提供实时反馈,我们可以为候选人提供更好的体验。”

      他说,如果人工智能部署不当,可能会使工作环境变得更糟,但是如果做得好,可能会导致工作场所更加公平。

      不论好坏,人工智能都会影响人们做出的财务决策,而且这种影响已经持续了多年。专家说,它在交易者的投资中起着越来越重要的作用,并且在防止信用卡欺诈方面特别有效。

      AppZen的联合创始人Kunal Verma说:“每当您申请贷款时,可能都会有AI来确定是否应该提供该贷款。” AppZen是金融团队的AI平台,与WeWork和Amazon等客户建立了AI平台。

      由于可以在几秒钟内筛选大量数据,该技术通常被认为是对潜在贷款借款人的更快,更准确的评估。但是,仍有错误的余地。

      Verma说,如果输入到算法中的信息表明您居住在很多人拖欠贷款的地区,则系统可能会确定您不可靠。

      Verma说:“该地区可能还会有很多具有某些少数民族或其他特征的人,这可能导致算法出现偏差。”

      偏差可能会在深度学习过程的几乎每个阶段蔓延。但是,算法也可以帮助减少由于人为判断力差引起的差异。

      一种解决方案涉及更改数据集中的敏感属性以抵消结果。另一个是预筛选数据以保持准确性。Sydell说,无论哪种方式,公司拥有的数据越多,人工智能就越公平。

      Sydell说:“有一个原因使Google,Facebook和Amazon成为AI的领导者。”“这是因为他们要处理大量数据。其他公司也可以使用相同类型的AI技术,但是他们可能没有大量数据可以使用和应用。这是绊脚石。”

      想要监管人工智能的政治家贝耶(Beyer)赞成让人们仔细检查计算机做出的决定,“直到技术是完美的,如果有的话。”

      他说,质疑人工智能是否应该成为解决每个问题(包括是否有人入狱)的首选解决方案是值得的。

      “而且当它完美时,我们必须开始考虑隐私。例如,为某人拍照并通过数据库运行是否合理?”拜尔说。“如果人工智能能够比人类更快,更准确地读取X射线,并且具有比人类更少的偏见,那就太好了。如果我们赋予AI宣战的能力,那么我们将陷入烦。”

      戴森(Dyson)是一家以开创性的吸尘器而闻名的英国公司,由于其商业意...

      Airbnb的崛起在一些人中引起了严厉的批评,一些人说,Airbnb破坏了...

      马来西亚的竞争监管机构周四威胁要对Grab处以2100万美元的罚款,因...