关于人工智能你不可不知的 12 个秘密

人类一直就在梦想有一个无所不知、无所不能的精灵来承担自己的工作。现在,多亏了计算机科学家在实验室里的辛勤工作,我们在人工智能中找到了答案,如果你也相信这一点,你的公司几乎可以做任何你需要做的事情–至少是其中的一些,在有些时候。

是的,人工智能的创新是惊人的。像 Siri、Alexa 或 Google Assistant 这样的虚拟助手对于 10 到 15 年前的时间旅行者来说似乎是很神奇的。你的话就是它们的命令,与上世纪 90 年代的语音识别工具不同,他们通常会给出正确的答案–如果你避免问一些曲线球问题的话,比如问有多少天使能在一根大头针上跳舞。

尽管人工智能很神奇,但它们仍然依赖于计算机编程,这意味着它们会受到各种限制,这些限制阻碍了电子表格或文字处理器等更普通的代码。它们在处理世界统计上的变幻莫测方面做得更好,但归根结底,它们仍然只是通过计算一个函数并确定某个数字是大于还是小于阈值来做出决策的计算机。在所有巧妙的神秘和复杂的算法之下,是一组实现“如果–那么”决策的晶体管。

我们能接受这个吗? 我们还有别的选择吗? 随着所有行业对人工智能的呼声越来越高,我们必须开始学会接受以下人工智能的一些现实。

你在 AI 中发现的很多东西都是显而易见的

对人工智能科学家来说,最艰难的工作就是告诉老板,人工智能已经发现了每个人都已经知道的东西。也许它检查了 100 亿张照片,发现天空是蓝色的。但是如果你忘了把晚上的照片也放在训练集里,它也就不会意识到晚上会变黑了。

但是人工智能如何才能避免这些显而易见的结论呢? 数据中最强烈的信号对任何在第一线工作的人来说都是显而易见的,对于挖掘数据的计算机算法来说也是显而易见的。它们将是猎犬能够带回来并落在你脚下的第一个答案。只不过算法不会期望得到你的回报。

利用微妙的人工智能洞察力可能并不值得

当然,当数据精确时,好的人工智能也会锁定小的差异。但是使用这些小的见解可能需要对公司的工作流程进行深刻的战略转变。有些细微的差别将过于微妙,根本不值得追根究底。但计算机依然会纠结于此。问题是,大信号往往是明显的,而小信号可能只能产生很小的收益。

神秘的计算机更具威胁性

虽然早期的研究人员希望计算机算法的数学方法会给最终的决定带来一种体面的气氛,但世界上的许多人都不愿意向逻辑之神投降。如果说有什么不同的话,那就是人工智能的复杂性和神秘性让任何对答案不满意的人都更容易攻击这个过程。算法是有偏差的吗? 暗箱下的神秘和复杂越多,这个世界就越有理由产生怀疑和愤怒。

人工智能主要是曲线拟合

数百年来,科学家们一直在绘制一些噪声数据,并在这些点上画线。机器学习算法核心的许多人工智能算法就是这样做的。他们收集了一些数据,并通过它们画了一条线。大部分的进步都来自于找到方法将问题分解成数千、数百万甚至是数十亿个的小问题,然后在所有的问题上画线。这不是魔法; 这只是一条流水线,展示了几个世纪以来我们是如何做科学的。那些不喜欢人工智能并发现很容易在它的决策上戳洞的人关注的就是这样一个事实,即通常没有深刻的理论或哲学支架来为答案提供可信度。这只是对某条线的斜率的一个猜测。

收集数据才是真正的工作

每个开始研究数据科学的人都开始意识到做科学的时间不多了,因为找到数据才是真正的工作。人工智能是数据科学的近亲,它也面临着同样的挑战。0.01% 的灵感来自于文件格式,99.99% 的灵感来自于丢失的数据字段和字符代码。

你需要大量的数据来得出更深刻的结论

有些答案很容易找到,但更深层次、更复杂的答案往往需要越来越多的数据。有时数据量会呈指数级增长。人工智能会让你对越来越多的信息贪得无厌。

你会被你的数据偏见所困

就像柏拉图洞穴里的居民一样,我们都被我们所能看到和感知的东西所限制。人工智能也没有什么不同。他们明显受到了训练环境的限制。如果数据中存在偏差,人工智能就将继承这些偏差。如果数据有漏洞,人工智能对世界的理解就会有漏洞。

人工智能是电力的黑洞

大多数好的游戏都有一个最终的关卡或最终的目标。然而,人工智能只会变得越来越复杂。只要你愿意支付电费,他们就会不断推出更多节点、更多级别和更多内部状态的更复杂的模型。也许这种额外的复杂性将足以使模型真正有用。也许下一次跑步时就会出现一些紧急的感知行为。但也许我们需要一个更大的 GPU 集合通宵运行才能真正捕捉到这些效果。

可解释的人工智能只是另一只乌龟

人工智能研究人员最近花了更多时间来试图解释人工智能到底在做什么。我们可以深入研究数据,发现经过训练的模型在很大程度上将依赖于这些来自数据集特定角落的参数。然而,通常其解释就像是魔术师通过表演一个戏法来解释另一个戏法一样。回答“为什么”这个问题出人意料地困难。你可以看着最简单的线性模型,盯着参数,但通常你会一头雾水。如果模型显示每年行驶的英里数乘以 0.043255,你可能会想为什么不是 0.043256 或 0.7,或者可能是像 4110 亿或 100 亿这样惊人的不同。一旦你使用一个连续体,沿着轴的所有数字可能都是对的。

这就像是那个旧模型,地球只是坐在一只巨大的乌龟上面。但这只乌龟站在哪里? 在另一只乌龟的背上。而下一个站在哪里? 一路下来都是乌龟。

努力做到公平是一项挑战

你可以把身高排除在训练集之外,但是你的人工智能程序很有可能会找到其他代理来标记高个子,并为你的篮球队选择他们。也许会是鞋码。或者是手长。人们梦想着让一个中立的人工智能做出公正的决定来使世界变得更加公平,但有时这些问题已经深深植根于现实,算法也做不到更好。

有时修复后的情况甚至更糟

强迫使人工智能公平有什么真正的解决办法吗? 有些人试图坚持认为人工智能产生的结果具有一定的预定百分比。他们把拇指放在天平上,然后重写算法来改变输出。但是,人们开始怀疑,如果你已经决定了你想要的答案,为什么我们还要费心的进行任何培训或数据分析。

人类才是真正的问题

当风险较低时,我们通常会对人工智能感到满意。如果你有 1000 万张图片要分类,如果一些人工智能在大多数时候都能产生相当准确的结果,你就会很高兴。当然,也可能会有问题和错误。一些小故障甚至可能反映了人工智能偏见的深层问题,这些问题可能写出一篇 200 页的令人毛骨悚然的论文。

但是人工智能可能并不是问题所在。他们会按照他们的要求去做。如果他们变得大惊小怪并开始生成错误消息,我们可以隐藏这些消息。如果训练集不能产生完美的结果,我们可以把抱怨的结果放在一边,然后要求更多的数据。如果准确性不高,我们可以把结果归档。人工智能将回去工作,并尽其所能。

然而,人类是一种完全不同的动物。人工智能是他们的工具,而人类就是那些想要利用它们来寻找优势并从中获利的人。这些计划中的一些将是相对无辜的,但也有一些是被预先策划的秘密恶意所驱使的。很多时候,当我们遇到一个糟糕的人工智能时,可能只是因为它是一些人从糟糕的行为中获利的傀儡而已。