越来越多的证据证明,只要存在人为因素,机器学习学到偏见的可能性就非常之高;甚至高于你原本的训练的目标。
已经不止有一篇论文指出,当人们在去除了病例的人种信息、年龄信息、性别信息之后,机器学习依然自动地开始判断人种、年龄和性别。最大量的证据显示,这是因为医生在对不同人种、不同年龄和不同性别的人进行诊断的时候是有差异的,这种差异会体现在CT扫描的时间长度;病历书写的措辞;甚至是格式病例的漏填项的多少上。
训练使得机器学习对这些部分(偏见部分)的掌握甚至快于、优于它们对于诊断本身的掌握。由于在机器学习过程中普遍存在的“Blackbox”现象,人们现在还不能完全解释原因。但是,一个比较靠谱的解释是,对黑人、黄种人、白种人以及对于不同年龄和不同性别的人态度不同,是医生在诊疗过程中一个非常普遍的现象,你可以解释为是人性使然。它的普遍性,远远高过了对于病情的诊断结果。
就是说,作为人,我们对人的偏见是普遍的,其通识性高于我们做的其他一切事物。于是,机器学习在学习我们的行为时,首先学到了这个——偏见。
在我国利用偏见的机器学习结果,将自己的商业变得的“成功”的例子不胜枚举。比如今日头条和抖音的算法,充分体现了这一点。它们集中将机器学习我们的行为的结果呈现在了性、贪婪、好吃等等动物性上。于是从七十多岁的到十来岁的男性,刷抖音最终的结果都会是女性、并越来越裸露。
不检讨这种算法的劣质,反而将之谓为“你关注的才是头条”、或者“算法推荐结果”,实在是中国最顶尖算法团队的一个最大的败笔,因为他们没有注意到,算法未总结出突破人性的结果,而是将用户带入动物性本能的底部。
中国算法专家们在国际期刊屡有论文发表,很多文章更进一步的在讨论,如何将以上的这种偏见走得更深、走进更多的行业中。这不但与世界其他国家同行对于偏见的探讨,大大不同,更显示出我们对于人工智能的商业考虑大大高于科学、更高于人类基本道德的特点。
所以,我们看到中国人工智能发展的成就,主要突出在了对于媒体推荐类产品、对电商导流并刺激购买上,这些方面中国的人工智能团队在辅导中国人决策方面,可以说是全球最牛。中国被摧毁的内容专业生产和无比蓬勃的电商,也为他们提供了最大的实验场景。
但是,除此之外,中国人工智能专家们的建树就难说了。比如,制药领域,美国的几个团队在未见covid-19真病毒,只取得它的基因图谱的情况下,就拿出全球公认最好的mRNA疫苗;再比如,在对于蛋白质折叠以来化合物的发现上,中国人工智能专家们的速度比起他们的外国同行来就要慢得多了,几乎没有什么像样的成果。
利用一个人工智能的“错误”,即“偏见”, 来赚钱的空间,在中国已经在变少。全中国人民都已经在买不该买的东西、和在刷你的抖音,这个被偏见带偏了的市场,必然会停止增长。下一步,你们应该去碰一碰、打一打硬仗了,这样才对得起十几亿人陪你们做的这一场代价巨大的实验。
要中国的人工智能公司、专家去突破这一点可能吗?也许不可能了,因为好赚的钱赚多了,就没有人再会“结硬寨,打呆仗”了。
中国所谓的人工智能四小龙可以成果寥寥,据财新的报道,他们最大的成果均体现在了由政府采购的“人脸识别”上了,十几亿的人脸全被识别完了,你们再能去干点啥呢?何况人脸识别已经是一个开放级别很高的技术了。
也许一上来,我们没有像欧洲一样对于人工智能技术加以一定的道德限制,是这一切行至今日的原因。一开始,中国的自我加冕的那些个人工智能企业,比如字节跳动、比如阿里巴巴等等,统统拿一个人工智能的“偏见”学习的结果,当成了成果。当然,你可以将其视为一个成果。中国人目前的新闻话题已经高度趋同,因为的阅读基本都是人性最底部的逻辑来推荐并被接受的; 中国人的购物、吃亦然。而这一切,除了将我们变得一样愚蠢之外,实在难说……
我已经不大相信那些已经赚得盆满钵满的公司会自我突破这个“偏见”去做其他的事情了,这样下去,也许我们就永远走在这一条“偏见”的道路上,直至与那个元宇宙相会在阴间……
0
推荐