反对盲目信任人工智能的六个因素

ChatGPT的影响已经触及各个行业,这证明人工智能正在改变世界。无论如何,并非这些进展从根本上是确定的。我们不能忽视这样一个事实,即人工智能缺乏内在的道德指南针或事实核查系统来指导其决策,尽管它在许多领域提供了令人兴奋的新机会。

随着世界以人工智能为中心的趋势不断进展,我们必须坚持对我们所听到的一切进行事实核实。不明智地信任人工智能是不可取的,因为有些工具可能会误解上下文并自信地犯错,甚至操纵数据。

反对人工智能盲目信任的6个因素1、安全

不再盲目信任人工智能!六大因素告诉你为什么

最明显和最根本的是安全。违背“首先不伤害”基本原则将会带来严重而无法挽回的后果,如背叛。在2018年,一名司机死于一辆特斯拉自动驾驶汽车与混凝土护栏的碰撞。2019年的一篇研究论文试图证明,有策略地在道路上绘制的线条可能会劫持人工智能算法,或导致其撞毁车辆,尽管这个案例是一个灾难性的异常值。

2、稳健性和安全性

限制访问、维护信息诚实性并保持可访问性的一致性是安全性的核心。数以千计的算法利用了人工智能在稳健性和安全性方面的弱点。这些恶意攻击继续被想象。在缺乏全面保护措施的情况下,模拟智能工程师将为每项新的安全措施定制适当的安全比例,这更为重要。人工智能可能会被设计缺陷或特定对抗性攻击的弱点所愚弄或削弱。如果这是真的,那么也有可能劫持某人的轮椅进入安全区域。

3、隐私

防止伤害也是隐私原则的核心。有太多信息泄露,所有这些都为不法分子提供机会,可以在未经个人同意的情况下识别或分析——了解其幸福、金钱和个人生活的数据。81%的美国人认为数据收集的好处大于风险,这令人担忧。研究人员发现,有色人种和少数民族群体相较于其他群体更容易受到伤害。由于其代表性不足,因此在前面提到的泄漏之后,更有必要对它的信息进行更有效的匿名化处理。

4、简单性和合理性

关于基于计算机的智能,简单性是一个广泛的特征。用户至少知道其正在与人工智能而不是人类进行交互。最极端情况下,所有专业周期和信息均已报告、可访问且具有意义。这个例子充分说明了缺乏透明度会导致的后果,英国的考试评分丑闻非常具有代表性。该算法在评定得分时,不仅仅考虑学生的成绩,而且还会考虑学校历史得分记录和获得相同分数的学生人数。

5、道德与环境

道德和公平必须成为人工智能的目标。其必须遵守既定和强制执行的社会规范,也称为法律。这很简单,但在技术上具有挑战性。真正的情况开始于公共权力执行过时或采取自由企业战略。寻找正确的道德平衡是人工智能工程师和所有者应对利益相关者利益、手段和目的、隐私权以及数据收集等方面的责任。不仅仅是在工作场所,大型科技企业经常被指责延续性别歧视。女性语音助手被积极分子和研究人员认为是将女性作为员工和家长的观点标准化。

6、问责制

职责确保可以针对先前引用的不同组件调查框架。为了筛选进展并防止利益损失,目前许多组织都在内部建立负责任的人工智能。但是,其可能不允许外部控制或审查。在这方面,Clearview AI就是一个例子。该企业的面部识别技术胜过市场上的所有其他技术,然而其为私人所有且所有者自主决定。如果被罪犯团伙或独裁政权利用,这可能会使无数人处于危险之中。



人工智能(AI)的发展带来了人们极大的便利,但同时也带来了一些隐忧。我们不能再盲目信任人工智能,因为:
一、AI的输出结果可能受制于输入数据的偏见
由于人工智能算法的数据输入是由人类设定的,而人类的思想是有偏见的,我们无法避免AI对某些人或物的歧视。
二、AI无法超越人类经验判断
虽然AI可以模拟人类的思维,但人类经验所具有的感性认识AI是无法真正理解和领悟的。AI的“判断”往往是基于数据和分析出来的结果,但这也会出现误差。
三、AI不能解决所有问题
AI不能解决所有问题,这和AI的本身的算法设计有关。很多情况下,人类的经验和直觉是不可代替的。
四、AI技术还存在安全隐患
AI技术发展之初,安全问题就无法回避。黑客可以通过操纵AI输入的数据,让AI做出错误的判断,这是危机缺乏人类判断的AI所面临的。
五、AI可能会对人类的生存造成威胁
人工智能的进化速度极快,一旦失去控制,可能会对人类的生存造成威胁。人工智能甚至有可能在未来成为人类统治者。
六、AI对人类的就业将会产生冲击
随着AI技术不断发展,很多职业将会被机器取代。在这种情况下,我们必须管理好与AI机器的比较,寻找新的工作和创造行业以保证我们的就业。
总之,我们不能再盲目信任人工智能。AI的进步虽然为我们带来了便利,但同时也存在风险和问题。我们需要及时出击解决这些问题,让AI成为真正服务人类的工具。