首页 » 技术资讯 » 85% AI 项目失败的 6 个原因(人工智能数据系统设计用户),ai项目在我国容易成功的原因包括哪些。

85% AI 项目失败的 6 个原因(人工智能数据系统设计用户),ai项目在我国容易成功的原因包括哪些。

admin 2024-07-23 21:06:41 技术资讯 0

扫一扫用手机浏览

文章目录 [+]

在热衷于头条和爆炸性技术进步的背后,人工智能项目的记录不佳。
Gartner和HBR估计高达 85% 的人工智能项目在部署之前或之后失败,是软件失败率的两倍。

众所周知,人工智能比软件更难部署。
人工智能的结果是不确定的。
人工智能在用户手中经历了能力的不确定性。
部署后的意外后果会导致负面和用户对人工智能系统的信任丧失。
成本和投资回报率很难预先证明是合理的。

这些人工智能系统包括生成式人工智能之外的系统:推荐系统、自动驾驶汽车、计算机视觉、医疗诊断、自主机器人、金融风险评估等等。

85% AI 项目失败的 6 个原因(人工智能数据系统设计用户) 85% AI 项目失败的 6 个原因(人工智能数据系统设计用户) 技术资讯
(图片来自网络侵删)

收集自多年的学术和行业研究来源,详细原因如下:

(1)人工智能系统没有解决正确的问题(2)人工智能创新差距(3)人工智能系统无法实现足够好的性能并且没有用处(4)人们错过了容易实现的目标(5)人工智能系统不会产生足够的价值(6)道德、偏见、社会危害

85% AI 项目失败的 6 个原因(人工智能数据系统设计用户) 85% AI 项目失败的 6 个原因(人工智能数据系统设计用户) 技术资讯
(图片来自网络侵删)
1.人工智能系统没有解决正确的问题

“数据科学家想出了人们不想要的东西。
设计师想出了一些无法建造的东西”
-- 约翰·齐默尔曼,卡耐基梅隆大学

数据科学家和技术专家通常是孤立的,很少与其他业务部门互动,因此提出的项目不太可能带来变革性的变革和价值。

设计师最有能力使技术变得有用和可用,因为他们从用户的角度解决问题。
但是

(1) 他们通常直到项目结束、功能决策已经做出之后才会被邀请参与,

(2)缺乏可供使用的人工智能功能的抽象;人工智能研究主要关注机制(某物在技术上如何工作),而不是能力(它可以为人们做什么,从而产品化)。

数据科学家的工作领域是改进和发明机制
设计师和产品经理的工作是将功能转化为理想的产品。

宝洁公司暂时将数据科学家安置在业务部门。
Accenture Song通过数据科学和设计探索人工智能创新。
研究人员与数据科学家、设计师和领域专家团队成功举办了人工智能构思会议。
此后进行了更多研究:“当设计参与者与数据科学家持续合作以帮助设想要做什么以及何时接受以数据为中心的文化时,他们似乎最成功。
……”

其他人建议优先考虑人工智能用例的优先顺序,首先是影响,其次是风险,第三是数据:“我们有数据来执行这个用例吗?我们有权使用它吗?它足够干净有用吗?如果我们没有跨过这一步,我们就不会开始。
寻找另一个用例。

2.人工智能创新差距

技术进步往往伴随着设计创新。
一种新的使能技术引导人们设想许多新的技术形式,并将其融入生活的不同方面。

工程师创造了可实现新功能的新技术。
设计师并不发明新技术。
相反,他们创建了已知技术的新颖组合(Louridas,1999)

然而,过去60年的人工智能研究并没有像其他技术那样经历丰富的设计创新。
部分原因是人工智能传统上是隐形的、主动提供结果、难以检测其使用情况,以便进行设计。

生成式人工智能将人工智能带到了界面的中心:今天的人工智能革命是关于用户体验的。
人们直接与人工智能模型交互,并来回调整结果。
然而,其他形式的人工智能很少被讨论,通常不会被注意到。

研究人员将此称为“人工智能创新差距”,通常归因于

数据科学的两个症状

(1)缺乏有效的构思。
大多数数据科学家的时间都花在分析、模型构建、从数据中提取有价值的见解上。
花在构思上的时间相对较少:发现用数据解决的正确问题。
与其立即关注一个想法,不如首先提出一百个替代想法可能是更好的问题?

(2)缺乏有效的心理模型和沟通。
人工智能开发人员通常有责任向其合作者解释数据科学概念。
沟通差距在实践中会出现,尤其是在传达技术知识及其价值时。

巴尔·摩西指出,“残酷的现实是,即使是人工智能的创造者也不能完全确定它是如何工作的”。
针对此已经提出了解决方案:意义建构框架、共享心智模型。

以及另外设计的两个症状

(1)设计师没有注意到 ML 可以改善用户体验的明显地方。
星巴克有礼品卡模式。
当星巴克应用程序检测到你在商店时,它可以自动将你带到支付屏幕,但用户仍然被迫重复导航到支付部分。
这并不难做到,但却是人工智能可以提供极大便利的一个不被注意的地方。

(2)在媒体炒作和批评的推动下,设计师对人工智能的了解已经陈词滥调。
设计师倾向于提出受科幻小说启发而人工智能实际上无法做到的功能,而不是风险较小的可交付人工智能产品。
最终用户的看法也受到媒体的影响,认为人工智能将取代他们,以人类的方式行事,确定性地工作。
这导致需要设计两个相互适应的代理,即概率人工智能系统和具有不明确人工智能期望和心理模型的用户。

3. AI系统无法达到足够好的性能并且没有用处

在多种情况下,人工智能系统很难获得令人满意的性能,从而导致系统可能无法发挥作用。

仔细观察,这些确实是人工智能不适合执行任务的情况,而将任务交给人类合作伙伴是一个更有希望的选择:

罕见疾病的医疗诊断。
医疗保健临床决策系统提供常见场景的预测。
但医生确实希望在不常见的情况下得到帮助,而这正是人工智能表现不佳的情况。

针对语义细微差别的自动内容审核。
人工智能内容审核系统可能难以准确识别微妙的语言:讽刺、挖苦、文化参考。
系统可能会删除实际上并未违反准则的内容,而应将其标记为供人确认。

自动驾驶汽车响应环境变化。
车辆接受过在停车标志处停车的训练。
但当路口警卫在路中间随意举起停车标志时,车辆就停下来,不知道如何前进。
系统会努力应对新情况,包括在做出反应之前发生不可预测的天气障碍物变化,或者绘制负空间(例如地面上的沟渠)。

相反,在人工智能独特的领域应用人工智能:

(1)平凡、重复的数据输入任务,人工智能可以减少人为错误。
做笔记、搜索信息、按人物、时间、地点对相册进行排序。

(2)对大型数据集进行大规模排序并提供见解、模式和建议。
例如,会议摘要、根据关键字或视觉效果标记时间点、通过查看世界数据来查找外国间谍气球。

(3)快速、实时的任务,是人们在精神上或体力上无法完成的任务。
自主机器人在仓库中寻找路线,或者机动到世界上的偏远地区来捕获数据、检查基础设施,并消除士兵在面临危险时的猜测。

(4)人机协作。
副驾驶、代理人、人工智能合作伙伴,无论你喜欢什么术语。
这个概念源于监管机器人。
Sheridan-Verplank 量表描述了人机交互的级别,从无自主性到完全自主的机器。
研究表明,对于机器人来说,中间水平不起作用。
从监督机器到完全接管任务的人需要承受很高的认知负荷。
即使在计算机界面中,设计有效的交接也能让人们做好预见、然后参与任务的准备。

4.人们错过了容易实现的目标

有一些与用户和业务目标相一致的简单人工智能机会,但公司不会构建它们。

Instagram 希望影响者发帖以吸引观看次数,但不了解影响者经常使用哪些标签,迫使影响者重复输入相同的标签。
构建并不难,但却是一个未被注意到的人工智能机会。

自助停车汽车只服务于一小部分害怕在狭窄空间停车的用户。
构建人工智能让汽车自动停车非常困难。
但它从简单的预测开始,适用于每辆车:这个空间足够大吗?人们的心态是让人工智能能力变得困难。

但即使是简单的人工智能也能成为头条。
由前同事构建:碰撞检测,人工智能可以拯救生命并寻求帮助。
洗手检测,确保您在新冠肺炎期间安全卫生。
预测性维护:防止停电并保持世界基础设施的运行。
自动更正:再也不会发送令人尴尬的短信。

5.人工智能系统没有产生足够的价值

建造和维护成本高,回报低。

Alexa 的推出旨在让人们从亚马逊订购更多产品。
相反,人们使用 Alexa 来播放音乐。
现在,每当人们要求 Alexa 播放音乐而不是进行购物时,亚马逊都会亏损。

数百个人工智能工具被开发出来来捕捉新冠病毒。
世界各地的研究团队纷纷伸出援手。
开发软件的目的是让医院能够更快地诊断或分诊患者。
然而,它们都不起作用,有些甚至有害。
许多问题都与不良数据有关。
这导致了采用和投资问题的减少,这是人工智能投资高但服务价值低的一个例子。

同样,IBM Watson for Oncology 在开发能够处理和推荐癌症治疗的人工智能方面取得了技术上的成功。
但由于开发成本高、集成挑战以及改善治疗结果超出现有医学知识的影响有限,它没有产生足够的投资回报率。
财务回报次优。

设计注意事项

当人工智能没有按照承诺完成任务时,过高的期望就会受到抑制。
但利用现有数据,这些任务可能还无法实现。
相反,应根据人工智能的能力来设计它。
情况包括(1)出现错误结果或风险缓解的风险较低,(2)机器可以最大限度地减少人为错误,(3)人工智能预计是实习生而不是专家,以及(4)有人工智能实习生总比没有好。

更多来自设计成功的人工智能产品和服务。

6. 道德、偏见、社会危害

人工智能伦理很广泛,但包括三个中心主题:偏见、隐私、透明度。

(1)当可用的训练数据不能准确代表人工智能打算服务的人群时,就会出现偏差 。
例如,人工智能可以帮助招聘人员筛选简历。
但系统会学会优先考虑那些在过去成功的男性候选人或教育背景的简历中发现的模式的简历,从而降低代表性不足的群体的评级。
人工智能还可以评估诊断一种影响男性和女性的癌症的可行性。
但如果该公司只有男性数据,这些模型将为女性提供有偏差的结果。

(2)隐私要求AI模型安全,不会泄露个人数据。
未经授权的访问、滥用或违规可能会导致身份盗窃、歧视等。
Stanford HAI 提出了三项减轻数据隐私风险的建议。
安·卡沃基安 (Ann Cavoukian) 的隐私设计原则提供了数据隐私的数学衡量标准。

(3)透明度表明用户需要了解人工智能模型如何工作以评估其优势、局限性和功能。
可解释人工智能(XAI)领域的发展源于人工智能越来越多地支持从医疗保健到刑事司法等后果严重的决策。
现在,“透明度”被广泛用作一种设计模式来设定用户期望。
当机器在关键情况下无法解释想法和行动而导致决策受到限制时,透明度还可以让人们理解、信任并有效管理他们的智能合作伙伴。

两个区别

(1)透明 系统创建的模型可以以人类可以理解的方式解释其推理。

(2)可解释的系统创建的模型可能不透明,但仍然是可理解和可预测的,认识到深度学习技术可能特别复杂且难以解释。

HCI 和 AI 研究已经产生了许多以用户为中心的算法可视化、界面和工具包来辅助 AI 素养:TensorFlow Playground、Wekinator、AI Expandability 360 Toolkit、Google 的Facets。

两种用户类型

(1)以用户为中心的人工智能提倡将系统设计为可供没有人工智能技术知识或专业知识的个人使用。
体现这一观点的产品有:Google Teachable Machine、Apple 的CreateML、Microsoft 的Lobe.ai、Generative AI 工具。
来自研究:非专家如何构建模型、与家庭协作 ML。

(2)以专家为中心的人工智能,为具有深厚知识的领域专家开发人工智能系统。
GitHub Co-pilot、Salesforce Einstein 认为,系统通常是复杂且可定制的。
专为熟悉特定工作流程和分类的专家而设计。
新手和非专家都不清楚这些系统是如何工作的。

数据科学和设计是从不同的学科发展而来的。
但当人工智能体验更接近于调节用户体验时,人工智能产品的互联性越来越强。

工业(营利性)不擅长批判性思维,制造有用的东西却带来意想不到的后果。
学术界(非营利组织)擅长批判性思维,充当消息灵通的批评家,本文引用了许多来源。

所有这些都是人工智能所需要的。

相关文章