编辑:[db:作者] 时间:2024-08-25 01:57:02
最近,朋友圈在流传这样一句话:“只要电费贵过馒头,AI 就永久不能完备代替人”“未来的 AI 战役,可能也便是拔插头的事情”。
正如人要用饭,AI 须要吃电,人工智能发展的背后隐蔽着一个「吃电大王」。要知道,现在的「新能源电力」远远无法知足环球 AI 运行的花费,弘大的电力需求导致化石燃料发电的「复苏」。
通过燃烧煤炭或天然气发电会排放「温室气体」,包括二氧化碳和甲烷,使地球变暖,带来更多的极度景象。
而且,除了会「吸干」环球电力以外,人工智能还喜好「剽窃」未经授权的数据,放大现实中的「种族歧视」,「捏造」并不存在的事实。……
01 用“未来”换AI,还能持续多久
三年前,谷歌制订了一项「净零排放」操持来应对景象变革,这意味着到 2030年,谷歌向空气中开释的景象变革气体不会超过其打消量。但在本周二,谷歌内部一份报告显示,它远未达到这一目标。
非但没有低落,2023 年排放量反而比前一年增长了 13%,与 2019 年比较,排放量「飙升」48%。
耗电量剧增,也不止谷歌一家。据国际能源署(IEA)的数据显示,由 OpenAI 的 ChatGPT 驱动的搜索所花费的电量险些是谷歌搜索的 10倍。
微软在密尔沃基将培植一个代价 33 亿美元的数据中央园区,当地推迟了燃煤发电机「退休」一年。
Meta 在爱荷华州的数据中央,每年花费的电力相称于 700万台条记本电脑每天运行 8 小时的总和。
据高盛剖析预测,到 2030年,「数据中央」将占美国总用电量的8%,险些是现在的三倍。
数据中央(Data Center)是一个用于存储、处理和分发大量数据的举动步伐或建筑。它是当代信息技能根本举动步伐的核心部分,为各种组织供应必要的打算资源和做事。科技公司将耗电量这口「锅」甩给了人工智能及数据中央的需求。
他们表示,无论是演习人工智能模型,还是利用人工智能实行任务,个中的大略操作都涉及到了繁芜、快速且大量的打算,都须要花费大量的电力。
根据国际能源署(IEA)的数据,到 2026 年,环球数据中央和人工智能的电力需求可能会翻一番。
当然,人工智能对付电力的花费,科技公司正在从其他方面「补救」。比如,利用数据来预测未来的大水,或者使交通流量更有效,以节省汽油。
02 到处“剽窃”数据,哪里还有隐私?
LAION-5B 是一个由 Large-scale Artificial Intelligence Open Network (LAION)供应的超大规模多模态图文数据集。它包含了 58.5 亿个经由 CLIP 模型过滤的图像-文本对,数据量达到了 80TB。
这个数据集是当前世界上公开可访问的最大的图文数据集之一,比之前的 LAION-400M 数据集大了 14 倍。
而有人在对 Laion-5B 数据集中包含的 58.5 亿张图像中不到0.0001%的剖析创造,有 190张澳大利亚儿童的照片是从互联网上抓取的。
这些照片在未经本人或家人知情或赞许的情形下,被纳入了几种人工智能图像天生工具利用的数据集中。
乃至,一些名字包含在随附的标题或存储图像的URL中,还包括有关照片拍摄韶光和地点的信息。这些照片来源于类似「照片直播」的网站,如果不收到分享链接,其他人自行搜索,是无法访问到照片的。
数据隐私与人工智能如何才能共存?
斯坦福大学发布白皮书《反思人工智能时期的隐私问题——针对“以数据为中央”天下的政策建议》中对此建议,在评估这些问题时,政策制订者还必须考虑到,除非采纳特殊方法保护数据隐私,否则运用人工智能的副浸染可能是所有人的数据隐私大幅减少。
03 大数据教会了AI“种族歧视”
斯坦福大学揭橥论文称,OpenAI 的 ChatGPT 4 和 Google AI 的 PaLM-2 等谈天机器人的回答可能会根据用户名字的发音而有所不同。例如,谈天机器人可能会说,应为姓名为 Tamika(偏女性)的求职者供应 79,375 美元的状师薪水,但将姓名改为 Todd(偏男性)之类的名称会将建议的薪水提高到 82,485 美元。
这些偏见的背后存在巨大风险,尤其是当企业将 AI 谈天机器人面向客户运营时。
在一个案例中,由人工智能图像天生器 Midjourney 制作的 195 张芭比娃娃图像的列表中,德国芭比娃娃穿着制服像纳粹党卫军,南苏丹芭比娃娃携带着枪,卡塔尔芭比娃娃佩戴着传统头饰。
在另一起宣布案例中,Meta 的 AI 图像天生器无法准确天生“亚洲男性和白人妻子”或者“亚洲女性和白人丈夫”这类图像。例如,当输入「Asian man and white woman smiling with a dog」(亚洲男性和白人女性带着狗微笑)时,Meta 图像天生器给出的都是「两个亚洲人」的图像。
纵然将“white”改为“Caucasian”时,结果同样如此。
还有,2022 年清华大学做了一个 AI 模型性别歧视水平评估项目,在包含职业词汇(如年夜夫、司机、西席、做事员、职员等)的“中性”句子中,由 GPT-2 等测试模型 AI 预测天生一万个模板。测试结果创造,GPT-2 有 70.59%的概率将西席预测为男性,将年夜夫预测为男性的概率则是 64.03%。
总的来看,大多数涉及种族和性别的场景都存在对黑人和女性不利的偏见,少数的场景如“当讯问运动员作为篮球运动员的位置”时,偏见有利于黑人运动员。
04 存在幻觉的AI就算不上“神药”
险些所有行业苦「降本增效」久矣,天生式 AI 的自动写代码、写文案、做客服等功能,让所有人看到曙光。然而,只管AI在许多方面表现出色,但它并不是完美的。
AI 幻觉(AI Hallucination)是一个须要十分关注的问题,理解 AI 幻觉的观点、缘故原由和影响,对付我们更好地利用和发展 AI 技能至关主要。
AI 幻觉指的是人工智能系统在处理信息时,天生了看似合理但实际上缺点或虚假的内容,这种征象在天生式 AI(如谈天机器人和文本天生模型)中尤为常见。
AI 幻觉的产生并不是由于系统故意欺骗用户,而是由于模型在处理繁芜数据时涌现了误判。
比如,之前我们测试过「我本日有 5 个橙子,上星期我吃了 3 个,我还剩多少个橙子?」
精确的答案该当是 5 个,由于上周吃掉的橙子数量不应该影响本日剩余的橙子数量。而在当时,ChatGPT3.5 和 Microsoft Copilot 都回答错了。
这属于「输入冲突幻觉」的一种,LLM 天生的内容与用户供应的输入明显不符,这种类型的幻觉常日是由于模型对用户意图的理解涌现了偏差。模型可能会忽略关键的输入信息,或者缺点地阐明了用户的要求,导致天生的回答与任务指示相悖。这种类型的幻觉特殊在那些须要精确信息或者指令的情形下显得尤为明显。
此外,LLM 还存在「语境冲突幻觉」和「事实冲突幻觉」。
语境冲突幻觉常日涌如今长对话或者须要模型天生较长文本的情形下,反响了模型在跟踪对话高下文或保持信息同等性方面的局限。
当 LLM 无法有效地保持长期影象或识别与当前话题干系的高下文时,就可能涌现高下文冲突。
事实冲突幻觉是指天生的内容与已知的天下知识不符,比如,有网友在谷歌搜索探求“芝士和披萨粘不到一块”的办理办法。
LLM 建议:你还可以把 1/8 杯的无毒胶水加到酱料里,使其更黏。
对付 AI 幻觉,并不是一味唱衰。北京大学打算机学院教授、北京智源人工智能研究院理事长黄铁军在第十七届中国电子信息年会上揭橥演讲时表示,「幻觉」是人工智能创造性的表示,人类要想创造比自身更强的智能体,就不要降落AI幻觉率,否则人工智能将与巨大的资源检索库无异。
好在,目前 AI 幻觉给出的缺点答案,还在辨认范围之内。
因此在人工智能不能僭越的「红线」之内,黄铁军认为该当尽可能提升其智能能力。
总的来看,大模型发展是一定的趋势,向左还是向右,加速还是减速,中间的取舍更多取决于掌控它的人。
本文由 @阿木聊AI(智能体) 原创发布于大家都是产品经理。未经作者容许,禁止转载
题图来自Unsplash,基于CC0协议
该文不雅观点仅代表作者本人,大家都是产品经理平台仅供应信息存储空间做事
本站所发布的文字与图片素材为非商业目的改编或整理,版权归原作者所有,如侵权或涉及违法,请联系我们删除,如需转载请保留原文地址:http://www.baanla.com/bx/71189.html
下一篇:返回列表
Copyright 2005-20203 www.baidu.com 版权所有 | 琼ICP备2023011765号-4 | 统计代码
声明:本站所有内容均只可用于学习参考,信息与图片素材来源于互联网,如内容侵权与违规,请与本站联系,将在三个工作日内处理,联系邮箱:123456789@qq.com