摘要
本文围绕AI是否是“人工智障”展开讨论。首先阐述了AI发展现状及争议,包括应用场景广泛但存在问题,如商品推荐不合理、技术应用乱象及四大隐忧等。接着分析了AI被赞为智能的表现,如快速响应与高准确率、行业应用优势等。同时指出了AI被称为“人工智障”的原因,包括知识表示不当、语音识别问题、自然语言处理局限、计算机视觉挑战、自主决策风险、AI客服不足、缺乏通用智能和模拟逻辑局限等。然后探讨了AI与人工智障的区别,包括人工智能的等级划分和算法的不完整性。最后得出应理性看待AI,既要认识其局限性,也要看到发展潜力,期待未来AI不断发展完善的结论。
关键词
AI;人工智障;智能表现;问题原因
ABSTRACT
This paper discusses whether AI is "artificial stupidity". Firstly, it elaborates on the current development status and controversies of AI, including its wide application scenarios but also existing problems such as unreasonable product recommendations, chaotic technology application and four major hidden concerns. Then it analyzes the manifestations of AI being praised as intelligent, such as fast response and high accuracy rate, and advantages in industry applications. At the same time, it points out the reasons why AI is called "artificial stupidity", including improper knowledge representation, voice recognition problems, limitations of natural language processing, challenges in computer vision, risks of autonomous decision-making, deficiencies of AI customer service, lack of general intelligence and limitations of simulation logic. Then it discusses the differences between AI and artificial stupidity, including the classification of artificial intelligence levels and the incompleteness of algorithms. Finally, it concludes that we should view AI rationally, recognize its limitations and also see its development potential, and look forward to the continuous development and improvement of AI in the future.
Keywords
AI; artificial stupidity; intelligent manifestations; reasons for problems
一、引言
(一)AI发展现状及争议
人工智能在当今时代的发展可谓突飞猛进,广泛应用于各个领域,给人们的生活带来了诸多便利。然而,AI在快速发展的同时,也引发了激烈的争议,其中一个备受关注的问题便是AI是否是“人工智障”。
目前,AI的应用场景极为广泛。从日常的语音助手到复杂的自动驾驶,从智能推荐系统到金融决策领域,AI无处不在。但与此同时,AI也暴露出一些问题。
在商品推荐方面,虽然人工智能通过算法锁定用户行为,但往往显得非常初级。例如有人在网站上搜索“汽车”,随后就会弹出“香车美女”的广告,然而“汽车”与“美女”的关联并非必然,这种推送让人觉得有些人工“弱智”。在音乐领域,网易云音乐的推送相对较好,因为其经过了编辑人员对歌曲曲风、作者、歌手的了解后,结合数据分析进行推送,而不是单纯依靠数据算法。高晓松曾表示大数据只能研究人的吃喝拉撒等简单固定动作,像在饭店吃饭,若根据大数据,因为一次吃了花生就每次都上花生甚至全是花生,这体现了大数据的局限性。
大模型的出现为AI带来了新的突破。周鸿祎认为大模型有三点重大突破:一是统一了人工智能垂直领域的问题处理方式;二是解决了对人类自然语言理解的问题;三是在语言基础之上可以进行计算机视觉、机器人控制等。李彦宏也发布了文心大模型 4.0,其理解、生成、逻辑和记忆四大能力与 GPT4 相比毫不逊色,在政务、营销客服等领域有广泛应用前景。但过去人们也曾认为 AI 是“人工智障”,因为它经常听不懂人话,而现在 AI 对“前后乱序的表述,比较模糊的表达意图,话语中的潜台词”都能进行相当准确的理解。
然而,AI 技术应用也存在乱象。一些博主用 AI“复活”已逝明星牟取利益,引发众怒;AI“换脸”类诈骗案近百起,造成经济损失高达 2 亿元;涉及 AI 知识产权争议的话题也时有出现。这说明 AI 应用的规范治理迫在眉睫。国际上,欧洲议会通过《人工智能法案》,美国出台相关管控措施,日本成立“AI 安全研究所”。我国也施行《生成式人工智能服务管理暂行办法》加强治理。
此外,AI 在发展过程中还存在四大隐忧。一是意识觉醒方面,人们担忧 AI 可能会发展出超越人类控制的自主意识,引发人类主体性危机;二是情感依恋方面,人们对 AI 产生情感投射,可能导致数字依恋障碍;三是创作冲击方面,AI 引发原创性、版权归属等问题;四是新型安全风险方面,AI 深度伪造技术被滥用,带来安全挑战。
同时,AI 模型应用端发展也面临争议和挑战,如数据隐私和算法偏见问题。数据隐私方面,AI 模型训练和应用依赖大量数据,可能带来安全风险;算法偏见方面,训练数据中的偏见可能导致算法产生歧视性结果。未来,AI 模型在应用端虽潜力巨大,但需要跨行业融合、监管完善和生态化发展。
人工智能也面临新争议话题,如深度伪造可能危害选举、人工智能生成内容的版权归属问题、谁有左右人工智能的权力以及如何贯彻人工智能法律法规等。
综上所述,AI 的发展现状充满争议,有人质疑其是否是“人工智障”。但不可否认的是,AI 在带来问题的同时,也为我们带来了机遇和潜力。我们需要在推动创新发展的同时,加强对 AI 的风险治理,实现开放合作,以确保 AI 技术的健康发展。
二、AI被赞为智能的表现
(一)快速响应与高准确率
在回答一些简单的、标准化的问题时,AI的响应速度比人工更快,而且准确率很高。以小米旗下的小爱同学为例,在升级大模型版本后,其对话能力得到进一步提升。无论是文本创作、知识库查询还是实时搜索,小爱同学都表现出色,能够快速准确地回答用户的问题,为用户提供个性化的服务。
此外,AI在医疗领域也展现出了快速响应与高准确率的优势。当前,大模型在医疗领域的应用日益广泛,涵盖了医学报告解读、医学问答、医学文书写作以及医疗相关业务处理等多个方面。
在医学报告解读方面,AI医学报告解读产品实现了大语言模型的生成和推理能力与医学专业知识的紧密结合。通过信息识别和抽取采集医学报告源数据,再对齐医学知识库和优化算法,输出相应的报告指标解读和诊断结果。例如讯飞晓医、域见医言等医检大模型,收集了大量医学报告样本参与训练,保障了较高的精度与效度。目前,AI医学报告解读主要用于辅助疾病诊断,不参与治疗方案的制定,有效降低了潜在误诊风险。
在医学问答方面,AI医学问答平台是大语言模型在医疗领域的热门应用之一。针对 C 端用户的问答涵盖医学科普、医疗咨询、养生保健、用药指导、情感陪护等多个方面。行业知识库丰富的医学知识储备加上大模型自身在问答、搜索领域的优势,使得各类医疗保健机构推出“AI 全科医生”、“全天候问诊服务”等成为可能。部分医疗机构还联合大模型厂商推出了“医生数字分身”,通过问答的形式,让拥有和医生相似知识储备的 AI 助理,助其完成病情跟踪、患者咨询、远程诊断等任务,方便了患者随时随地获得医疗帮助和解答。
在医学文书写作方面,AI 发挥了大模型在内容创作上的优势。病历、诊断书、医嘱、手术记录、入院/出院小结等常见医学文书的写作高度依赖人工,而随着 AI 大模型的深度发展和在医学领域的应用,AI 辅助医疗文书的写作自然也成了行业关注的焦点。部分综合性和专科医疗机构已经开始引进 AI 生成式病历,以提升医疗服务效率与质量。同时,入院/出院小结、病例报告、手术记录等医疗文体,也在加速向 AIGC 靠拢。在学术性医学文体的创作上,AI 的应用比重也在逐年上升。为了降低大模型幻觉问题,提高创作精度与质量,需要在保障医疗数据隐私安全和处理合规的同时,有效做好相关医疗业务数据的采集和对接。
在医疗相关业务处理方面,基于大模型支持医疗数据类业务的处理,是技术融合度较高,也是备受期待的应用方向之一。通过对医学图像和医疗数据的分析,加快完成早筛诊断,辅助临床治疗。利用司普 AI 核保员等工具,通过对体检报告、病历、入院/出院小结、手术记录、医疗发票、医保结算单等医疗报告及相关票据的识别抽取和结构化管理,经由 QA、模型自学习、业务规则引擎、行业知识库模块辅助核保等。此外,通过与医疗机构业务打通,AI 还在预问诊/问诊、陪诊、康复管理、医疗随访等环节发挥着重要作用,推动非核心的医疗业务流程实现自动化、智能化流转。
综上所述,AI 在快速响应与高准确率方面的表现,使其在多个领域得到了广泛的应用和赞誉。
(二)行业应用及优势
在医疗、金融、法律等垂直领域衍生出相关大模型,为各行业带来新的变革。如大模型技术正在打造崭新的数据/知识/信息智能化处理基础平台,将对各行各业的基本生态带来变革。
在医疗领域,大模型的应用带来了诸多创新。当前大模型在各行业广泛使用,而在专业性极强的医疗领域,垂直模型尤为重要。以前人们面对化验单、检查报告往往看不懂,如今随着 AI 在医疗领域的深入应用,普通人拍照上传即可了解异常指标背后的风险,积极配合治疗或预防。AI 大模型在医疗领域的创新应用主要包括医学报告解读、医学问答、医学文书写作以及医疗相关业务处理等方面。
AI 医学报告解读:这类产品结合了大语言模型的生成和推理能力与医学专业知识,通过信息识别和抽取采集医学报告源数据,对齐医学知识库和优化算法,输出报告指标解读和诊断结果。为保障精度与效度,像讯飞晓医、域见医言等医检大模型收集大量医学报告样本参与训练。现阶段 AI 医学报告解读主要用于辅助疾病诊断,不参与治疗方案制定,以降低潜在误诊风险。
AI 医学问答:AI 医学问答平台是大语言模型在医疗领域的热门应用之一。针对 C 端用户的问答涵盖医学科普、医疗咨询、养生保健、用药指导、情感陪护等多个方面。行业知识库丰富的医学知识储备加上大模型自身在问答、搜索领域的优势,使得各类医疗保健机构推出“AI 全科医生”、“全天候问诊服务”等成为可能。部分医疗机构还联合大模型厂商推出了“医生数字分身”,通过问答形式让拥有和医生相似知识储备的 AI 助理完成病情跟踪、患者咨询、远程诊断等任务,方便患者随时随地获得医疗帮助和解答。
AI 医学文书写作:发挥了大模型在内容创作上的优势。病历、诊断书、医嘱、手术记录、入院/出院小结等常见医学文书的写作高度依赖人工,随着 AI 大模型的深度发展和在医学领域的应用,AI 辅助医疗文书的写作成为行业关注焦点。部分医疗机构已经开始引进 AI 生成式病历,以提升医疗服务效率与质量。同时,入院/出院小结、病例报告、手术记录等医疗文体也在加速向 AIGC 靠拢。为降低大模型幻觉问题,提高创作精度与质量,需要在保障医疗数据隐私安全和处理合规的同时,有效做好相关医疗业务数据的采集和对接。
医疗相关业务处理:基于大模型支持医疗数据类业务的处理,是技术融合度较高且备受期待的应用方向之一。通过对医学图像和医疗数据的分析,加快完成早筛诊断,辅助临床治疗。利用司普 AI 核保员等工具,通过对医疗报告及相关票据的识别抽取和结构化管理,经由 QA、模型自学习、业务规则引擎、行业知识库模块辅助核保等。此外,AI 还在预问诊/问诊、陪诊、康复管理、医疗随访等环节发挥重要作用,推动非核心的医疗业务流程实现自动化、智能化流转。
在金融领域,大模型可以对大量的金融数据进行分析和处理,为金融机构提供风险评估、投资决策等方面的支持。例如,通过对市场数据的分析,预测股票价格走势,为投资者提供投资建议。同时,大模型还可以用于信用评估,通过对个人或企业的财务数据、信用记录等进行分析,评估其信用风险,为金融机构的贷款决策提供依据。
在法律领域,大模型可以帮助律师和法律机构进行法律研究、合同审查、案件分析等工作。大模型可以快速检索大量的法律文献和案例,为律师提供相关的法律依据和参考。同时,大模型还可以对合同进行自动化审查,识别其中的风险和漏洞,提高合同的质量和安全性。融入时尚产业,带来设计、生产、销售等岗位的创新。如 AI 技术可以帮助设计师更好地了解流行趋势,突破设计瓶颈,在销售端能更加精准了解客户需求,提升竞争力。
AI 大模型在时尚设计过程中发挥着重要作用。传统设计需要耗费大量时间进行灵感搜集、素材收集和创意构思,而有了 AI 大模型,设计师们只需简单输入一些关键词或图片,系统便能够迅速生成数以千计的设计方案,极大地提高了设计效率。同时,AI 大模型还能够通过分析大数据,洞察消费者的喜好和趋势,帮助设计师们更好地把握市场需求,创作出更受欢迎的设计作品。
AI 大模型为消费者带来了全新的购物体验。在过去,消费者在选购服装时往往需要花费大量时间和精力去逛商场、试穿衣服,而有了 AI 大模型,他们只需在手机或电脑上输入自己的身体尺寸和喜好,系统便会根据个性化的需求推荐最适合的款式和尺码,避免了选购过程中的种种烦恼。而且,AI 大模型还能够根据消费者的历史购买记录和反馈,为其定制专属的时尚潮流趋势,让消费者在时尚潮流中永远走在最前沿。
引入 AIGC 服装大模型后,服装上新成本大幅降低,单月可出数十万新款,爆款率提升。例如,一家杭州服装公司衣裳科技将平面图纸输入 Fashion 3D 系统后,通过数字技术即可实现高仿真的 3D 数字样衣建模,让开款效率提升 30%,版式如果需要微调,还可以让各方人员在“云版房”中协同审版,高效解决出款周期长的问题。同时,AIGC 服装大模型可以做到文生图、图生图,帮助设计师高效产出符合市场需求的时尚款式。(一)语音识别问题
虽然现代语音识别技术已经很先进了,但仍然存在识别错误、不准确或者无法理解口音等挑战。
例如,在一些实际应用场景中,不同地区的口音可能会导致语音识别出现偏差。像一些带有浓厚地方特色口音的用户在使用语音助手时,可能会出现识别错误的情况。比如,某些地区将“鞋子”发音为“孩子”,语音识别系统可能会错误地将其识别为“孩子”,从而引发理解上的混乱。
此外,环境噪音也会对语音识别造成很大的影响。在嘈杂的公共场所,如商场、车站等地,语音识别系统可能难以准确地捕捉到用户的语音指令,导致识别错误或者无法识别。
腾讯 AI 语音识别 API 在实际使用过程中也会遇到一些问题。比如,接口鉴权过程中如果多传递了一个参数,且该参数参与了 MD5 计算,服务器会报“sign invalid”的错误。这是因为服务器在接口鉴权时只会使用特定的参数,而客户端多传递的参数只有在客户端参与了 MD5 计算,服务器上没有使用这个参数进行计算,从而导致计算出的 MD5 值不一样。虽然多传参数时并不会报错,但这也给语音识别的准确性带来了一定的风险。
在自然语言处理领域,专家们也在不断探索和改进语音识别技术。华为诺亚方舟试验室主任李航老师指出,自然言语理解很难,自然言语处理现在用数据驱动的方法去做,有五个最基本的问题,即分类、婚配、翻译、结构猜想和马尔可夫决策过程。在具体的问题上,有了数据就可以跑 AI 的闭环,就可以不断提高系统的功能、算法的力量。但目前的语音识别技术在面对一些复杂的语言环境和口音问题时,仍然存在很大的挑战。
同时,智能客服在语音识别方面也存在问题。“AI 客服快把人逼疯了”,智能客服答非所问,人工客服排不上队。在与 AI 客服的沟通中,语音识别不准确可能导致无法理解用户的问题,从而给出错误的回答。例如,北京市民邹女士在与电商平台某店铺 AI 客服沟通时,就因为语音识别问题无法解决她的问题。AI 客服的回复完全是答非所问,让消费者感到不满和无奈。
综上所述,语音识别问题仍然是 AI 被称为“人工智障”的一个重要案例。虽然技术在不断进步,但在口音、环境噪音等方面的挑战仍然需要进一步解决。
(二)自然语言处理局限
在处理复杂语境时,人工智能系统可能会出现困惑。例如回答问题驴唇不对马嘴,反复沟通仍然无效。
自然语言处理在面对复杂语境时确实存在诸多局限。一方面,人工智能在理解和回应复杂问题时常常表现得力不从心。例如,当问题涉及多个层面的逻辑关系或者需要结合特定背景知识进行推理时,人工智能系统可能给出不恰当甚至完全错误的回答。这种情况在一些需要深度理解和综合分析的场景中尤为明显。
另一方面,自然语言处理在处理模糊表述时也容易陷入困境。人类语言中常常存在模糊性,例如隐喻、暗示等表达方式。人工智能系统在面对这些模糊表述时,往往难以准确理解其真正含义,从而导致回答不准确或不相关。
此外,自然语言处理在处理上下文依赖的问题时也存在困难。人类在交流中会根据上下文来理解和回应问题,但人工智能系统在这方面的能力相对较弱。当问题的含义依赖于特定的上下文时,人工智能系统可能无法正确地捕捉到上下文信息,从而给出错误的回答。
在实际应用中,这些局限也给用户带来了很多困扰。例如,在智能客服领域,当用户提出复杂或模糊的问题时,AI客服往往无法给出满意的回答,甚至会出现答非所问的情况。这不仅浪费了用户的时间,也降低了用户对人工智能系统的信任度。
总的来说,自然语言处理在处理复杂语境时的局限表明,人工智能系统在理解和运用自然语言方面还有很长的路要走。虽然技术在不断进步,但要实现真正的自然语言理解和流畅的人机交互,还需要克服许多挑战。
(三)计算机视觉挑战
在面对光线较暗或者背景嘈杂的情况下,计算机视觉系统可能会出现错误。如人脸识别系统有时化个妆或者戴个眼镜就完全识别不出来,甚至将图片识别为真人等。
计算机视觉在面对复杂场景时确实面临诸多挑战。在光线较暗的环境中,图像的对比度和清晰度会显著降低,导致特征提取困难。例如,在夜间的监控场景中,人脸识别系统可能无法准确识别出人员的面部特征,从而出现识别错误。此外,背景嘈杂也会对计算机视觉系统产生干扰。当背景中存在大量的干扰元素时,目标物体的特征可能会被淹没,使得系统难以准确识别目标。
例如,在一些工厂车间中,背景中可能存在各种机械设备和工具,这些干扰元素会影响计算机视觉系统对产品的检测和识别。在物流行业中,包裹的识别和分类也可能受到背景杂乱的影响。当包裹堆积在一起,背景中存在各种颜色和形状的物体时,计算机视觉系统可能会出现错误的分类结果。
不仅如此,计算机视觉系统在处理一些特殊情况时也会出现问题。比如,当物体被部分遮挡时,系统可能无法完整地识别出物体的特征,从而导致识别错误。在交通领域,车牌识别系统可能会因为车牌被部分遮挡而无法准确识别车牌号码。
此外,不同的拍摄角度也会对计算机视觉系统产生影响。当物体从不同的角度被拍摄时,其外观特征可能会发生变化,这可能会导致系统无法准确识别物体。例如,在自动驾驶领域,车辆对周围环境的感知主要依赖于计算机视觉系统。然而,当车辆行驶在不同的道路条件下,周围物体的拍摄角度会不断变化,这可能会影响系统对障碍物的识别和判断。
综上所述,计算机视觉系统在面对光线较暗、背景嘈杂、物体遮挡和不同拍摄角度等复杂情况时,可能会出现错误,这表明计算机视觉技术仍有很大的提升空间。
(四)自主决策风险
在复杂的环境中,人工智能系统可能会出现决策失误。例如飞机上的 AI 系统因无法灵活根据现实环境变化临时判断,可能导致空难事故。
飞机上的人工智能系统通常用于辅助飞行员进行飞行操作和决策,如自动驾驶、导航、故障检测等。然而,在某些复杂的情况下,AI 系统可能无法像人类飞行员那样灵活地应对突发状况。
一方面,当遇到突发的气象变化时,如强烈的气流、风暴等,AI 系统可能无法及时调整飞行策略。人类飞行员可以凭借经验和直觉,迅速做出反应,调整飞机的高度、速度和航向,以避开危险区域。而 AI 系统可能会因为缺乏对复杂气象情况的全面理解,无法做出最佳的决策,从而增加了飞行风险。
另一方面,在机械故障或其他紧急情况下,AI 系统也可能无法做出恰当的决策。例如,当飞机的某个关键系统出现故障时,人类飞行员可以根据具体情况进行判断,采取紧急措施,如寻找最近的机场迫降。而 AI 系统可能会因为严格遵循预设的程序和算法,无法灵活地应对意外情况,导致决策失误。
此外,AI 系统的决策还可能受到数据质量和完整性的影响。如果输入的数据存在误差或不完整,AI 系统可能会做出错误的决策。例如,导航系统的数据不准确可能导致飞机偏离航线,增加与其他飞机或障碍物碰撞的风险。
综上所述,人工智能系统在飞机上的应用虽然带来了一定的便利和效率,但在复杂的环境中,确实存在决策失误的风险,这可能会导致严重的空难事故。因此,在使用人工智能系统的同时,必须加强对其的监管和风险评估,确保飞行安全。
(五)AI 客服的不足
回答问题不智能,对个性化问题要么列出一连串无用的回答,要么慢条斯理开启语音播报,犹如“鸡同鸭讲”。
在实际应用中,AI客服在回答个性化问题时表现不佳。例如,当消费者询问一些复杂的产品细节问题或特定的服务需求时,AI客服往往无法给出准确的答复。以某电子产品的售后咨询为例,消费者询问产品出现特定故障的原因及解决方案,AI客服可能只是列出一些通用的故障排除步骤,而这些步骤对于该消费者的具体问题并无实际帮助。
此外,AI客服在回答问题时还可能出现逻辑混乱的情况。比如,消费者询问退货流程,AI客服可能先回答发货时间,再提及产品质量保证,最后才回到退货流程的问题上,让消费者感到困惑。
这种不智能的表现不仅浪费了消费者的时间,还降低了消费者对企业的信任度。消费者在多次与AI客服沟通无果后,往往会对企业的服务质量产生质疑,甚至可能选择转向竞争对手。难以找到人工客服,“快把人逼疯”的 AI 客服和“隐身”的人工客服成为企业服务的问题。
在许多企业的服务体系中,人工客服的接入变得越来越困难。一方面,AI客服在与消费者沟通时,往往不能准确判断消费者的需求是否需要人工客服介入。例如,当消费者明确表示需要人工客服时,AI客服可能仍然重复一些无用的回答,或者只是简单地告知消费者人工客服忙,无法及时提供服务。
另一方面,一些企业为了降低成本,减少了人工客服的数量,或者将人工客服的接入渠道设置得非常复杂。消费者可能需要在多个页面中寻找人工客服的入口,或者经过漫长的等待才能与人工客服取得联系。以某在线旅游平台为例,消费者在遇到行程变更问题时,试图联系人工客服,却发现平台上只有AI客服的回复,而人工客服的联系方式隐藏在层层菜单之下,让消费者感到十分无奈。
这种情况不仅给消费者带来了极大的困扰,也影响了企业的形象和声誉。当消费者在遇到问题时无法及时得到有效的帮助,他们可能会在社交媒体上抱怨,甚至向相关部门投诉,给企业带来负面的影响。四、AI被称为“人工智障”的原因分析
(一)知识表示不当
人工智能出现“人工智障”的原因是“知识表示的不当”,这会导致 AI 出现误判。例如对能被标准化的对象更能准确表达,而像采茶等难以标准化的工作则难以应对。华南理工大学软件学院教授黄翰指出,目前人工智能对能被标准化的对象更能准确表达,将特斯拉的智能工厂生产工作和采茶叶工作放在人工智能面前,采茶叶是更难的,因为其不容易被表达,比如采一片茶叶的力道如何、手势应该如何,一百个采茶姑娘会有一百种表述。不直接从事知识创新和深度加工的知识搬运工、将知识进行组装的知识组装员以及知识挖掘师会被人工智能取代,因为现在的大模型已经显示出,如果只用现有的某种方法去分析,知识分析师也会面临某些威胁。
(二)语音识别问题
虽然现代语音识别技术已经很先进了,但仍然存在识别错误、不准确或者无法理解口音等挑战。
例如,在一些实际应用场景中,不同地区的口音可能会导致语音识别出现偏差。像一些带有浓厚地方特色口音的用户在使用语音助手时,可能会出现识别错误的情况。比如,某些地区将“鞋子”发音为“孩子”,语音识别系统可能会错误地将其识别为“孩子”,从而引发理解上的混乱。
此外,环境噪音也会对语音识别造成很大的影响。在嘈杂的公共场所,如商场、车站等地,语音识别系统可能难以准确地捕捉到用户的语音指令,导致识别错误或者无法识别。
腾讯 AI 语音识别 API 在实际使用过程中也会遇到一些问题。比如,接口鉴权过程中如果多传递了一个参数,且该参数参与了 MD5 计算,服务器会报“sign invalid”的错误。这是因为服务器在接口鉴权时只会使用特定的参数,而客户端多传递的参数只有在客户端参与了 MD5 计算,服务器上没有使用这个参数进行计算,从而导致计算出的 MD5 值不一样。虽然多传参数时并不会报错,但这也给语音识别的准确性带来了一定的风险。
在自然语言处理领域,专家们也在不断探索和改进语音识别技术。华为诺亚方舟试验室主任李航老师指出,自然言语理解很难,自然言语处理现在用数据驱动的方法去做,有五个最基本的问题,即分类、婚配、翻译、结构猜想和马尔可夫决策过程。在具体的问题上,有了数据就可以跑 AI 的闭环,就可以不断提高系统的功能、算法的力量。但目前的语音识别技术在面对一些复杂的语言环境和口音问题时,仍然存在很大的挑战。
同时,智能客服在语音识别方面也存在问题。“AI 客服快把人逼疯了”,智能客服答非所问,人工客服排不上队。在与 AI 客服的沟通中,语音识别不准确可能导致无法理解用户的问题,从而给出错误的回答。例如,北京市民邹女士在与电商平台某店铺 AI 客服沟通时,就因为语音识别问题无法解决她的问题。AI 客服的回复完全是答非所问,让消费者感到不满和无奈。
(三)自然语言处理局限
在处理复杂语境时,人工智能系统可能会出现困惑。例如回答问题驴唇不对马嘴,反复沟通仍然无效。
自然语言处理在面对复杂语境时确实存在诸多局限。一方面,人工智能在理解和回应复杂问题时常常表现得力不从心。例如,当问题涉及多个层面的逻辑关系或者需要结合特定背景知识进行推理时,人工智能系统可能给出不恰当甚至完全错误的回答。这种情况在一些需要深度理解和综合分析的场景中尤为明显。
另一方面,自然语言处理在处理模糊表述时也容易陷入困境。人类语言中常常存在模糊性,例如隐喻、暗示等表达方式。人工智能系统在面对这些模糊表述时,往往难以准确理解其真正含义,从而导致回答不准确或不相关。
此外,自然语言处理在处理上下文依赖的问题时也存在困难。人类在交流中会根据上下文来理解和回应问题,但人工智能系统在这方面的能力相对较弱。当问题的含义依赖于特定的上下文时,人工智能系统可能无法正确地捕捉到上下文信息,从而给出错误的回答。
在实际应用中,这些局限也给用户带来了很多困扰。例如,在智能客服领域,当用户提出复杂或模糊的问题时,AI 客服往往无法给出满意的回答,甚至会出现答非所问的情况。这不仅浪费了用户的时间,也降低了用户对人工智能系统的信任度。
(四)计算机视觉挑战
在面对光线较暗或者背景嘈杂的情况下,计算机视觉系统可能会出现错误。如人脸识别系统有时化个妆或者戴个眼镜就完全识别不出来,甚至将图片识别为真人等。
计算机视觉在面对复杂场景时确实面临诸多挑战。在光线较暗的环境中,图像的对比度和清晰度会显著降低,导致特征提取困难。例如,在夜间的监控场景中,人脸识别系统可能无法准确识别出人员的面部特征,从而出现识别错误。此外,背景嘈杂也会对计算机视觉系统产生干扰。当背景中存在大量的干扰元素时,目标物体的特征可能会被淹没,使得系统难以准确识别目标。
例如,在一些工厂车间中,背景中可能存在各种机械设备和工具,这些干扰元素会影响计算机视觉系统对产品的检测和识别。在物流行业中,包裹的识别和分类也可能受到背景杂乱的影响。当包裹堆积在一起,背景中存在各种颜色和形状的物体时,计算机视觉系统可能会出现错误的分类结果。
不仅如此,计算机视觉系统在处理一些特殊情况时也会出现问题。比如,当物体被部分遮挡时,系统可能无法完整地识别出物体的特征,从而导致识别错误。在交通领域,车牌识别系统可能会因为车牌被部分遮挡而无法准确识别车牌号码。
此外,不同的拍摄角度也会对计算机视觉系统产生影响。当物体从不同的角度被拍摄时,其外观特征可能会发生变化,这可能会导致系统无法准确识别物体。例如,在自动驾驶领域,车辆对周围环境的感知主要依赖于计算机视觉系统。然而,当车辆行驶在不同的道路条件下,周围物体的拍摄角度会不断变化,这可能会影响系统对障碍物的识别和判断。
(五)自主决策风险
在复杂的环境中,人工智能系统可能会出现决策失误。例如飞机上的 AI 系统因无法灵活根据现实环境变化临时判断,可能导致空难事故。
飞机上的人工智能系统通常用于辅助飞行员进行飞行操作和决策,如自动驾驶、导航、故障检测等。然而,在某些复杂的情况下,AI 系统可能无法像人类飞行员那样灵活地应对突发状况。
一方面,当遇到突发的气象变化时,如强烈的气流、风暴等,AI 系统可能无法及时调整飞行策略。人类飞行员可以凭借经验和直觉,迅速做出反应,调整飞机的高度、速度和航向,以避开危险区域。而 AI 系统可能会因为缺乏对复杂气象情况的全面理解,无法做出最佳的决策,从而增加了飞行风险。
另一方面,在机械故障或其他紧急情况下,AI 系统也可能无法做出恰当的决策。例如,当飞机的某个关键系统出现故障时,人类飞行员可以根据具体情况进行判断,采取紧急措施,如寻找最近的机场迫降。而 AI 系统可能会因为严格遵循预设的程序和算法,无法灵活地应对意外情况,导致决策失误。
此外,AI 系统的决策还可能受到数据质量和完整性的影响。如果输入的数据存在误差或不完整,AI 系统可能会做出错误的决策。例如,导航系统的数据不准确可能导致飞机偏离航线,增加与其他飞机或障碍物碰撞的风险。
(六)AI 客服的不足
回答问题不智能,对个性化问题要么列出一连串无用的回答,要么慢条斯理开启语音播报,犹如“鸡同鸭讲”。
在实际应用中,AI 客服在回答个性化问题时表现不佳。例如,当消费者询问一些复杂的产品细节问题或特定的服务需求时,AI 客服往往无法给出准确的答复。以某电子产品的售后咨询为例,消费者询问产品出现特定故障的原因及解决方案,AI 客服可能只是列出一些通用的故障排除步骤,而这些步骤对于该消费者的具体问题并无实际帮助。
此外,AI 客服在回答问题时还可能出现逻辑混乱的情况。比如,消费者询问退货流程,AI 客服可能先回答发货时间,再提及产品质量保证,最后才回到退货流程的问题上,让消费者感到困惑。
这种不智能的表现不仅浪费了消费者的时间,还降低了消费者对企业的信任度。消费者在多次与 AI 客服沟通无果后,往往会对企业的服务质量产生质疑,甚至可能选择转向竞争对手。难以找到人工客服,“快把人逼疯”的 AI 客服和“隐身”的人工客服成为企业服务的问题。
在许多企业的服务体系中,人工客服的接入变得越来越困难。一方面,AI 客服在与消费者沟通时,往往不能准确判断消费者的需求是否需要人工客服介入。例如,当消费者明确表示需要人工客服时,AI 客服可能仍然重复一些无用的回答,或者只是简单地告知消费者人工客服忙,无法及时提供服务。
另一方面,一些企业为了降低成本,减少了人工客服的数量,或者将人工客服的接入渠道设置得非常复杂。消费者可能需要在多个页面中寻找人工客服的入口,或者经过漫长的等待才能与人工客服取得联系。以某在线旅游平台为例,消费者在遇到行程变更问题时,试图联系人工客服,却发现平台上只有 AI 客服的回复,而人工客服的联系方式隐藏在层层菜单之下,让消费者感到十分无奈。
这种情况不仅给消费者带来了极大的困扰,也影响了企业的形象和声誉。当消费者在遇到问题时无法及时得到有效的帮助,他们可能会在社交媒体上抱怨,甚至向相关部门投诉,给企业带来负面的影响。(二)缺乏通用智能
在缺乏通用智能的支持下,很多人工智能的实际应用差强人意,难以与人有效交流。如 Google 翻译对一些情境下的内容翻译不准确。目前,人工智能在语言翻译领域的应用广泛,但仍存在不少问题。以 Google 翻译为例,虽然它能够在一定程度上帮助人们理解不同语言的文本内容,但在处理一些特定情境下的翻译时,往往不够准确。比如在文学作品、专业文献或特定文化背景下的表达中,Google 翻译可能无法准确传达原文的含义和情感。这是因为人工智能在缺乏通用智能的情况下,难以理解文本中的复杂语境、文化内涵和隐含意义,从而导致翻译结果不尽如人意。此外,不同语言之间的语法结构、词汇用法和表达方式存在很大差异,人工智能在翻译时可能会出现机械性的错误,无法像人类翻译者那样灵活运用语言知识和翻译技巧,进行准确而流畅的翻译。这使得人们在使用 Google 翻译等工具时,常常会对翻译结果感到困惑,难以实现有效的交流。
神经网络的表征学习需要大量的输入样本,计算量也很大,且看不到图像中的情境,更理解不了其中广告宣传的意图。神经网络在进行表征学习时,确实面临着诸多挑战。首先,它需要大量的输入样本才能进行有效的学习。这是因为神经网络通过对大量数据的分析和处理,来提取特征和建立模型。如果输入样本不足,神经网络就难以充分学习到各种情况和变化,从而影响其性能和准确性。其次,神经网络的计算量非常大。在处理大规模数据和复杂模型时,需要耗费大量的计算资源和时间。这不仅对硬件设备提出了很高的要求,也限制了神经网络在一些实时性要求较高的应用场景中的使用。此外,神经网络在处理图像等数据时,往往只能看到表面的特征,而无法理解图像中的情境和背景信息。例如,在广告宣传中,图像往往包含着丰富的情境和意图,如产品的使用场景、品牌形象的传达等。但神经网络很难理解这些深层次的信息,更无法准确把握广告宣传的意图。这使得人工智能在广告分析、市场营销等领域的应用受到了一定的限制。
(三)模拟逻辑的局限
人类在理解和使用计算机器时的模拟逻辑支配着人类中心主义式的、对新技术的恐惧,以人类自身角度来理解机器,无法从人类语言认知的角度来评判机器“思考”。
在人工智能的发展过程中,模拟逻辑的局限逐渐显现。一方面,人类往往以自身的认知模式去理解机器,认为机器应该像人类一样思考和行动。然而,人工智能的运作方式与人类有着本质的区别。例如,在语言处理方面,人类能够理解隐喻、暗示等模糊表达,并根据上下文进行推理和判断。但目前的人工智能系统在处理这些复杂语境时却常常力不从心。以自然语言处理为例,当面对模糊表述时,人工智能可能难以准确理解其真正含义,从而导致回答不准确或不相关。
另一方面,模拟逻辑使得人类在评判机器“思考”时陷入困境。人类语言认知是基于意识对符号的操纵,而人工智能探测语言的方式是由对向量空间的操纵和数学建模意义上的嵌入空间的临接性所构成。两者有着质的区别,因此我们无法从人类语言认知的角度来评判机器的“思考”。例如,在AI作画中,机器可能会按照字面义执行命令,而无法理解成语的真正含义,从而被人们称为“人工智障”。
总之,模拟逻辑在一定程度上限制了人类对人工智能的理解和应用。我们需要摆脱模拟逻辑的束缚,以更加客观和科学的态度去认识和发展人工智能。
五、AI与人工智障的区别
(一)人工智能的等级划分
人工智能大致可以分为三个等级:弱人工智能、强人工智能和超人工智能。我们现在日常所见的大多数都是弱人工智能,在单一领域具有一定智能,行为方式和模仿方式都比较简单,不能模拟人的人性,容易被称为“人工智障”。
弱人工智能通常只能在特定任务或领域中表现出一定的智能水平。例如,图像识别软件能够准确识别特定类型的物体,但对于其他任务可能无能为力。语音助手可以回答一些简单的问题和执行基本指令,但在处理复杂的语义理解和逻辑推理时往往表现不佳。
强人工智能则具备更广泛的智能能力,能够像人类一样全面学习、理解和运用知识。它可以在多个领域进行自主学习和决策,具备自我意识和情感认知。然而,目前我们还远未实现强人工智能。
超人工智能更是超越了人类智能的范畴,具有超越人类智慧和创造力的能力。它能够在几秒钟内学习、分析和解决复杂问题,并开发出人类无法想象的新技术和发现新知识。但超人工智能目前还只存在于理论设想中。
不同等级的人工智能在性能、能力和应用场景上存在巨大差异。弱人工智能在一些简单的任务中表现出色,但在复杂情境下容易出现错误和局限性,被认为是“人工智障”的主要类型。而强人工智能和超人工智能则代表了未来人工智能发展的方向,但实现它们仍然面临着巨大的技术挑战和伦理问题。
(二)算法的不完整性
算法是人工智能的核心,其设计基于人类的主观判断。由于每个人对事物的看法和认知存在差异,这导致了人工智能算法的不完整性。例如,在图像识别领域,不同的开发者可能会采用不同的特征提取方法和分类算法,这就可能导致对同一幅图像的识别结果存在差异。此外,即使是同一个开发者,在不同的时间和情境下,也可能会对算法进行不同的调整和优化,这进一步增加了算法的不稳定性。
只要是人编写的算法,就必然存在出错的概率。这是因为人类的认知是有限的,无法完全预测和考虑到所有的情况。例如,在自动驾驶领域,虽然人工智能算法可以通过传感器获取大量的环境信息,并根据这些信息做出决策,但在面对一些突发情况,如恶劣的天气、意外的障碍物等,算法可能会出现错误的判断。又如,在金融领域,人工智能算法可以对大量的金融数据进行分析和预测,但在市场出现极端波动或重大事件时,算法可能会失效。
此外,算法的不完整性还可能导致人工智能系统的偏见和歧视。由于算法是基于人类的训练数据和经验进行学习和优化的,如果训练数据中存在偏见,那么算法也会继承这些偏见。例如,在招聘领域,如果人工智能算法是基于历史招聘数据进行训练的,而这些数据中存在性别、种族等方面的偏见,那么算法可能会在招聘过程中对某些群体产生歧视。
综上所述,算法的不完整性是人工智能被称为“人工智障”的一个重要原因。为了提高人工智能的性能和可靠性,我们需要不断改进算法的设计和优化方法,同时加强对算法的监管和评估,以确保算法的公正性和准确性。
六、结论
(一)对AI的理性认识
AI既不是全能神器,也并非一无是处。它是一个工具,有其优点和不足,我们需要理性看待,既要看到它在某些方面的智能表现,也要认识到它被称为“人工智障”的原因和局限性。
AI在快速响应与高准确率方面表现出色,在医疗、金融、法律等领域以及时尚产业都有广泛应用,为各行业带来了新的变革和创新。然而,AI也存在语音识别问题、自然语言处理局限、计算机视觉挑战、自主决策风险和AI客服不足等问题,这些问题使得AI在某些情况下被称为“人工智障”。
从知识表示不当、缺乏通用智能和模拟逻辑的局限等方面分析,AI被称为“人工智障”有其内在原因。算法的不完整性也是导致AI出现问题的重要因素。同时,人工智能大致可以分为弱人工智能、强人工智能和超人工智能三个等级,我们现在日常所见的大多数都是弱人工智能,容易在复杂情境下出现错误和局限性。
尽管AI存在诸多问题,但它的发展趋势也为我们带来了希望。多模态大模型让AI具备视觉、听觉等阅读世界的能力;视频生成有望发展为符合物理常识的世界模型;端侧大模型可以部署在终端独立运行,提升数据处理速度和保护用户隐私;AI科研从辅助科研到主动科研,实现从推断到推理的跃升;具身智能将实现虚拟和现实的深度融合;人工智能+能够与现有的各种技术和行业相结合,产生倍增效应。
总之,我们应该理性看待AI,既要认识到它的局限性,也要看到它的发展潜力和机遇。在推动AI发展的同时,不断改进算法,加强对AI的监管和评估,提高其性能和可靠性,确保其安全和公平使用。同时,我们也应该积极探索AI与人类的协作方式,发挥AI的优势,为人类的生活和工作带来更多的便利和创新。
(二)未来发展的期待
虽然“人工智障”让我们频频失望,但我们还是要对它给予包容和谅解,毕竟人工智能的实现是需要一个过程的,随着科技的进步,我们期待未来的 AI 能够不断发展,真正实现智能,为人类带来更多的便利和创新。
从多方面来看,AI 的未来发展充满希望。多模态大模型将让 AI 具备视觉、听觉等阅读世界的能力,使其能够更好地理解和处理复杂的现实世界信息。视频生成有望发展为符合物理常识的世界模型,为影视、广告等行业带来全新的创作方式。端侧大模型的发展可以部署在终端独立运行,提升数据处理速度的同时更好地保护用户隐私。AI 科研从辅助科研到主动科研,实现从推断到推理的跃升,将在科学研究领域发挥更大的作用。具身智能将实现虚拟和现实的深度融合,为机器人、无人车等领域带来重大突破。人工智能+能够与现有的各种技术和行业相结合,产生倍增效应,推动产业升级和创新。
在技术层面,随着算法的不断优化和改进,AI 在语音识别、自然语言处理、计算机视觉等方面的表现将逐渐提升。例如,通过不断训练和优化语音识别算法,减少口音和环境噪音对识别准确性的影响,提高对不同地区口音的适应性。在自然语言处理方面,加强对复杂语境、模糊表述和上下文依赖问题的处理能力,使 AI 能够更准确地理解和回应人类的问题。在计算机视觉领域,通过改进算法和技术,提高在光线较暗、背景嘈杂、物体遮挡和不同拍摄角度等复杂情况下的识别准确性。
此外,AI 在缺乏通用智能和模拟逻辑局限方面也有望取得突破。通过不断的研究和创新,提高神经网络的表征学习能力,减少对大量输入样本和计算量的依赖,同时更好地理解图像中的情境和广告宣传的意图。在模拟逻辑方面,摆脱人类中心主义的束缚,以更加客观和科学的态度去认识和发展人工智能,探索适合 AI 的评判标准和发展路径。
总之,我们对 AI 的未来发展充满期待。虽然目前 AI 还存在一些问题和不足,但随着科技的不断进步和创新,AI 将不断发展和完善,为人类带来更多的惊喜和便利。