在知识责任与技术发展之间:人工智能搜索知识的困境研究 齐 康 作者简介 齐康,中山大学马克思主义学院博士研究生,研究方向:科学技术哲学、马克思主义基本原理。 基金项目 国家社会科学基金重大项目“负责任的人工智能及其实践的哲学研究”(编号:21&ZD063);广州市哲学社会科学发展“十四五”规划课题“数字时代马克思主义理论创新与传播研究”(编号:2023GZYB01)。 文章来源 本文发表于《天府新论》2025年第3期,注释从略。 摘要 随着人工智能(AI)技术深度融入搜索引擎领域,AI搜索凭借高效性、精准性与个性化推荐特性,显著提升了知识检索的便捷性。然而,AI搜索知识引发了两大困境:一是技术界面与知识的“密封”效应,即用户因界面直观化设计而难以理解底层算法逻辑,导致知识探索被动化;二是AI生成知识的去情境化与单一视角性,剥离了知识的文化情境背景,削弱了用户对复杂信息的全面理解能力。这不仅影响了用户在知识搜索中的主体地位和批判性思维能力,还触及了更深层的知识传播责任层面。知识搜索本该是一个涉及用户、社会与知识等多方面的复杂行为,AI搜索知识不仅要应对技术快速发展所带来的副作用,也必须承担起对社会和情境知识的责任。这既关乎AI技术自身的持续健康发展,也关乎知识信息的公平性和公正性,以及知识传播的多元性和全面性。 关键词 人工智能 搜索引擎 情境知识 密封知识 知识责任 近年来,人工智能(AI)技术的迅猛崛起,正以前所未有的力度重塑着知识信息的搜索、处理与回答的格局。这一变革的一系列标志包括:微软与OpenAI的强强联合,将ChatGPT无缝融入“必应”(Bing)搜索引擎;谷歌推出“双子座”(Gemini)项目,在部分搜索结果中增设“AI概览”窗口,并表示相信AI是搜索的未来;百度亦在搜索页面结果显示的首要位置设置了AI智能回答窗口;DeepSeek凭借其卓越的搜索回答技术与显著的成本优势得到了广泛的应用与认可,腾讯元宝则深度整合了DeepSeek技术,并搭载了联网搜索的功能;三星与苹果两大科技巨头相继推出搭载AI功能的智能手机,进一步促进了AI模型与日常移动搜索的无界融合。这一系列动向,凸显出AI搜索回答技术嵌入搜索引擎的广泛趋势,亦揭示了数字化浪潮下知识搜索与理解模式的根本性变迁。 值得深思的是,搜索引擎的发展趋势呈现出一种融合AI技术来适应用户需求、提高自身效率的态势。然而,AI搜索回答技术的迅猛推进,引发了AI技术界面和知识的“密封”困境以及AI搜索回答知识的去情境化困境。我们只有追根溯源,剖析AI搜索知识所面临的困境,探究其对用户及知识的影响,才能寻找有效的应对策略。最重要的是,知识搜索本应是嵌入社会与文化中的实践活动,而非孤立的技术行为,需要融合用户认知、社会背景与技术的多方面互动。这意味着知识搜索引擎应在搜索技术创新与加速的同时平衡好自身的社会与知识责任。 一、 人工智能作为搜索知识的 新代理 AI搜索知识凭借其高效、准确与个性化的优势,成为近期搜索引擎中主要的代理工具,并赢得了广大用户的信任与依赖。然而,AI搜索知识却构建了一种关于知识搜索的假象,遮蔽了知识探索真实的实践路径。当用户日益依赖AI来获取知识时,他们或许未曾意识到AI搜索的知识在广度、深度和客观性上并非全然可靠。这种对AI搜索知识的信任与依赖不仅影响了用户对知识的全面理解,还会削弱用户的主体性和批判性思维能力。 (一)人工智能搜索知识的优势 在信息大爆炸的推动下,网络搜索引擎成为人们搜索知识的重要工具,其性能与效率直接影响用户的搜索体验与知识获取效率。而AI凭借其强大的语言整合能力、复杂任务处理能力、跨领域知识整合能力及个性化的搜索功能,逐渐成为人们快速搜查知识的理想工具。正因如此,搜索引擎将AI搜索回答置于界面最显眼的位置,旨在通过这一创新举措实现知识内容的即时推送与服务的高效精准,从而满足用户更快捷化的搜索需求。 以往的网络搜索依赖爬虫技术抓取信息,以网页链接形式展示结果,缺乏对信息的深度整合,用户需逐一浏览链接。相比之下,以搭载DeepSeek为代表的搜索引擎,如360的纳米AI搜索与腾讯元宝搜索,通过技术架构中的语义理解模型与动态索引机制,实现了对海量网页内容的融合与简化。当用户输入查询指令时,AI能够迅速捕捉用户意图从信息库中筛选高相关度的内容,并自动提炼概要与结构化总结,直接呈现精准答案,从而减少用户浏览多网页的时间成本。此外,AI搜索的功能设计还强化了个性化能力,通过分析用户历史行为与偏好,动态调整搜索结果排序与推荐策略,目的在于进一步增强用户黏性。这种技术架构与功能设计的协同,使AI成为搜索引擎提升效率与速度的核心工具。 (二)对人工智能搜索知识的信任建立 当AI已跃升为知识搜索与信息获取领域的新代理时,其用户信任度的持续增长背后存在着多维度的推动力量。首要因素在于其展现出的卓越高效的信息检索能力。它能在浩瀚的数据中迅速筛选并呈现用户所需信息,显著提升了在信息爆炸的互联网环境下工作与学习的效率,这对用户构成了极大的吸引力。随着用户对AI搜索知识的长期持续使用,他们逐渐参与到AI搜索知识的生成过程中。这种参与不仅提高了用户对AI建议的接受度,还增强了用户对AI的信任。用户开始更加愿意与AI进行协作,为AI提供反馈和建议,从而进一步推动AI对知识搜索的不断优化和改进。然而这也带来了一定的风险,即用户可能对AI产生过度依赖与信任,甚至在某些情况下放弃自主的批判性思考并完全信赖AI的建议。这会削弱用户的独立思考能力。 正如媒体等同理论(the media equation theory)的解释:人们倾向于无意识地将计算机和其他媒介视为真实的存在,并会对媒体产生社会的、自然的反应,即便他们知道这样做不合理,甚至认为不可能做出这样的反应。社会验证和口碑效应在AI搜索知识的信任建立中起到了重要作用。当其他用户分享他们使用AI搜索知识的成功案例时,这些正面评价会激发更多用户尝试使用AI搜索知识的兴趣。同时,社交媒体上的积极讨论和推荐也会进一步推动AI搜索知识的普及和信任度的提升。这种社会验证和口碑效应形成了一种良性循环,使得越来越多的用户开始信任并使用AI搜索知识。 (三)用户对人工智能搜索知识在深度、广度与客观性上的信任错觉 其实,用户对AI搜索知识所展现的信任潜藏着复杂的错觉问题,正如丽莎·梅塞里和M.J.克罗克特在《自然》杂志上提出,使用AI工具进行研究可能会产生解释深度的错觉、探索广度的错觉以及客观性的错觉。 首先,对AI理解知识的深度的错觉,体现在用户对AI深入分析复杂问题的能力寄予厚望。用户普遍认为AI能够深入分析复杂的问题,但很多AI系统使用的算法往往倾向于简化问题以快速提供答案。这种简化的结果可能失去原问题的复杂性,导致输出的答案缺乏必要的背景信息。AI不具有真实社会的具身性,也就是情感和社会文化理解的经历与能力,使得其在处理涉及文化、伦理或复杂社会关系的问题时往往难以准确把握。 其次,对AI探寻知识的广度的错觉,用户以为AI模型能够无死角地覆盖广泛的知识领域,提供全面无遗漏的信息。由于依赖特定的数据集,其实AI并不能确保其输出信息的全面性,特别是在面对实时或边缘化的提问时。这种盲点可能导致信息的遗漏,用户错认为通过AI所获取的信息是全方位的,实际上却可能存在明显的知识空白。AI算法也可以通过分析用户过往的行为和偏好来推荐信息,这种个性化服务虽然提升了用户的满意度和使用体验,但也不可避免地将用户限制在特定的信息范围内,从而导致AI提供的知识出现广度上的狭隘。 最后,对AI搜索知识的客观性的错觉,体现在用户会轻易相信AI生成的答案是中立公正的,但事实上,AI的答案深受算法与数据的影响,可能隐含偏见。这种偏见并非凭空产生,而是深植于数据选择、信息过滤与算法模型的方方面面。究其原因有二:其一,数据选择是算法构建的基石,决定了算法的性能和输出;其二,在算法运行的过程中,以用户为基础的个性化信息过滤与协同过滤也潜在地影响着信息流向与互动结果,这些结果正在加剧不同年龄、不同收入等级、不同行业背景的社会群体之间的知识鸿沟。如果AI搜集的数据反映了社会的偏见、刻板印象或不平等的权力关系,那么AI所整合的信息将不可避免地承载这些偏见。在缺少透明度的情境下,用户未能意识到背后的潜在偏见和局限性,从而将AI搜索提供的知识信息视为客观中立的。 二、技术发展的副作用: 搜索的“密封”与算法的局限 AI搜索在高效整合与提取知识的同时,也导致其搜索回答的知识存在去情境化的困境,使得原本与特定情境紧密相连的知识变得孤立且片面。这种知识搜索回答机制还在不经意间构筑了一道隐形的屏障,导致了AI技术界面以及所提供知识的“密封”效应。这一效应不仅阻断了知识与实际应用场景之间灵动的联系,还极大地收窄了用户探索知识的视野,限制了他们从不同维度、多元视角去深入挖掘和理解知识的广度与深度。 (一)人工智能界面上的“密封表面” 随着AI技术在搜索引擎中的进一步应用,其搜索关联知识的优势得以凸显,但也带来了雷纳·米尔霍夫所提出的“密封表面”(sealed surface)效应。米尔霍夫认为,数字技术提供给用户的界面犹如一层“密封表面”,随着界面的直观性日益增强,这种直观与便捷却牺牲了用户对界面内部工作原理的理解。普通用户无法深入了解日常互动界面的技术结构与算法,唯有技术精通者才有能力明智地理解与使用它们。用户与数字界面的交互变成了一种黑箱操作,用户只需关注最终结果,无需关心实现界面背后的技术细节,以及界面互动结果背后的技术原理。 当AI逐渐成为新的搜索引擎的核心工具后,“密封表面”概念得到了充分体现。用户面对的是简洁、直观且高度优化的搜索框和结果展示栏,而背后复杂的算法逻辑、数据处理流程及机器学习模型则被无形的“密封表面”所遮蔽。这种设计旨在优化用户体验,使非技术背景的用户也能轻松利用AI搜索迅速找到所需信息,有效降低了技术使用门槛。然而,AI搜索的高效与精确往往让用户专注于信息获取,忽视了结果背后的复杂算法与数据处理。这种“只见树木,不见森林”的现象,隔绝了用户与技术深层原理的接触与理解,使用户更多地成为被动的信息接收者,而非主动的技术探索者。这不仅限制了用户对技术全面认知的可能性,也削弱了技术与用户间的互动与反馈机制,收紧了知识与信息的流通渠道。在AI搜索的个性化推荐机制下,算法依据用户搜索轨迹与偏好精准推送信息,虽提升了搜索效率,却也可能将用户局限于信息茧房中,只接触到与既有观点相契合或特别感兴趣的信息片段,忽视了更边缘和多元的知识。 尽管如此,“密封表面”并非不可破解。具备专业能力与探索意愿的用户可通过学习相关技术知识,穿透这层“密封表面”,深入了解AI搜索背后的算法逻辑和技术原理。但过高的技术门槛使得广大普通用户难以跨越,进一步加剧了技术与知识之间的鸿沟。 (二) 人工智能搜索回答的“密封知识” 诺拉·芙蕾雅·林德曼借用米尔霍夫的“密封表面”, 进一步提出“密封知识”(sealed knowledges)的概念。“密封知识”指的是在AI技术应用于搜索引擎时,通过直接提供答案的方式,使得知识的复杂性和情境性被简化或忽视,导致用户难以接触到全面、深入且多元的知识信息,从而形成一种知识被“密封”或难以触及的状态。 正如马丁·波塔斯特等人在谈到AI为搜索查询提供的答案时所说的那样,“对于许多类型的问题和检索任务,由于其潜在假设空间的复杂性不应该给出直接的答案”。AI搜索提供的知识回答并不能完全地反映出搜索查询可能答案的复杂性和上下文依赖性,算法会以新的方式整合已有文本,断章取义并总结知识,从而打破了答案的情境空间。 将直接提供知识回答的AI语言模型整合到搜索引擎中,是基于对知识的非具身和非实体化理解,这可能会影响到知识用户的主体性。同时,AI造成知识的“密封”效应会导致错误信息的日益传播,并可能使边缘化的知识越来越难以找到。当前在线搜索领域的新趋势将庞大且多变的知识数据简化为单一的答案呈现,这也促使用户倾向于采取最直接的方式获取知识,不愿深入探索搜索可能引出的多元答案。搜索引擎中的AI回答机制恰好契合了用户的这种心理,使得用户更容易不加批判地接受一个表面上看来单一且颇具说服力的答案,即便该答案只是片面的、受特定情境限制的,并且是众多潜在答案中的一个。这样的现象潜藏着风险,因为算法所生成的答案可能会传递错误信息,加固主流知识观念,而忽视或边缘化其他重要的知识维度。 “密封知识”还揭示了数字技术对知识传播与互动模式的深刻变革。以往的知识搜索途径,如翻阅书籍、浏览网页或与他人交流,都充满互动性与动态性,鼓励思考与质疑。然而,在AI技术与知识“密封”的覆盖下,知识与信息的交流逐渐单向度、静态化。用户更多地处于被动接受状态,依据算法逻辑接收预设信息,缺乏与知识的深度对话与互动探索。这一转变削弱了用户作为知识探索者的主动性,也影响了知识的全面传播与深入理解。 (三)人工智能搜索的算法局限 AI搜索采用大语言模型(LLM)独特的生成机制、随机特性和遍历算法存在着固有的局限性。LLM的生成机制基于海量文本数据进行概率建模,以此生成内容。这意味着模型输出的内容仅是统计意义上的最优解,而非经过严密逻辑推理得出的结论。这种生成方式导致其搜索提供的知识被随意“篡改”或遭受“污染”。 AI搜索知识的遍历算法过程依赖于特定算法对答案空间进行探索与排序,但这一过程受到模型预训练目标和优化策略的限制。其中,在AI模型的预训练阶段,模型会被训练去理解和生成符合特定目标或任务的语言内容。这些目标可能包括语言流畅性、语法正确性、上下文相关性等。因此,当AI模型在搜索知识答案时,它会倾向于选择那些更符合其预训练目标的内容,这可能会导致某些知识被优先呈现,而另一些可能同样合理但不太符合预训练目标的答案则被忽视。另外,在AI模型的训练和优化过程中,通常会采用一些特定的策略来提高模型的性能和效率。这些策略可能包括对数据知识的剪枝、量化、蒸馏等,它们旨在减少模型的计算量、内存占用或提高模型的推理速度。然而,这些优化策略也可能对模型的遍历和排序算法产生影响,导致某些边缘知识因为计算效率或资源限制而被排除或降低排序。 尽管AI可以从人类反馈中学习,能够使答案更具“人性化”,但也可能导致模型为迎合用户偏好而优先输出符合用户喜好但并非客观事实的内容。但在通过人类反馈优化后,负责搜索回答的AI模型会优先输出符合标注者偏好的内容。例如,在历史类问题中若用户经常倾向于提问某类观点,模型可能忽略其他角度的史实。搜索知识的模型还可能会对“长尾知识”覆盖不足,当处理小众领域查询时,会因缺乏相关训练数据而采用模糊的或错误的答案甚至编造“看似合理”的概括来掩盖知识空白。 三、被忽视的知识责任: 人工智能搜索知识的去情境化 接近零成本的互联网发布和检索功能,从物质上消除了纸媒时代知识传播的门槛,这对传统媒体时代所遵行的一些基本规则造成了严重破坏。AI高效介入知识搜索的同时也在无形中剥夺了用户在传统纸媒模式下,通过广泛浏览、综合多元信息来源以全面理解知识的情境性与多元视角的机会。但知识并非孤立存在,而是深深嵌入特定的社会、文化和历史背景之中的。正如情境知识(situated knowledge)理论所强调的,知识是情境化和视角化的,它需要通过多元视角和在丰富的社会文化情境中去探索、去理解。 AI通过自然语言处理、知识图谱等技术,将海量信息提炼为结构化答案,可能导致原始信息的情境性场景关联性丢失。例如DeepSeek作为一个高性能的自然语言处理(NLP,Natural Language Processing)模型,得以在知识文本处理领域广泛应用。NLP任务即自然语言处理任务,旨在让AI能够理解和生成人类的语言,从而实现人机之间的有效沟通。然而,NLP任务主要关注语言的结构、语法和词汇关系,依靠统计和模式识别技术,缺乏深层次的情境理解能力,难以准确捕捉特定情境中的微妙差异。当面对新的情境或语言环境时,NLP任务依据固定的预定义规则和模型进行处理,显得缺乏灵活性,而人类则能根据情境变化灵活调整语言使用。在文化背景和情感感知方面,NLP任务也显得力不从心,尽管AI在情感分析上取得了一定成果,但仍难以全面反映情境性知识中的情感或文化复杂性。自然语言中的词汇和句子含义高度依赖于上下文,如反讽、隐喻等。AI搜索需要根据上下文动态解析词汇含义,例如“苹果”在不同情境下可能指水果或公司,当用户提问“如何评价苹果的创新”时,模型可能无法有效区分知识信息库中消费电子领域与农业领域的情境差异。因此,AI搜索处理知识的过程中可能会导致知识的情境性剥离,同时也会限制知识的多元视角。 (一)人工智能搜索的知识情境性剥离 情境知识理论的主要观点是:所有的知识是情境化和视角化的,知识产生于多样化的立场。这强调知识的生成和理解是与个人的经验以及特定的社会、文化、历史及物理环境密切相关的。情境知识不仅关注客观事实和概念,还特别关注知识的运用和体现,以及作出决策和解决问题所需的社会情境。 唐娜·哈拉维提出,情境知识强调知识的相对性和上下文依赖性。她主张知识并不是客观绝对的,而是嵌入特定的社会、文化和历史背景中。她认为,没有脱离具体的人的知识,无论是通过科学实验、通过尝试和错误、通过思考还是通过经验,知识总是由人类产生的。“这些是关于人们生活的主张;来自于一个身体的视野,总是一个复杂、矛盾、构建和被构建的身体。”正如不同性别和不同身体能力的人被赋予的可信度不同一样,具有种族和性别特征的人与没有特征的人在社会中有着不同的经历,这导致他们拥有不同的知识。因此,哈拉维认为,知识本质上总是片面的,总是带有情境性的,因为人类有不同的社会经历、不同的知识经验和不同的身体。 情境知识强调了认知过程与社会、文化、历史以及身体、环境、工具等情境要素之间的内在关联性。同样,作为知识的载体,词语的意义是紧密地与特定社会情境相连的。在语言体系中,词语所承载的意义远远超过其字面定义本身,它们还蕴含了上下文信息、说话者的深层意图,以及听者基于自身认知框架所作出的解读。正如米哈伊尔·巴赫金所说:“词语若脱离上下文便失去了意义,而上下文则是由文化积淀与个人经验共同塑造的。”在实际交流中,往往需要超越词语的字面意义,综合考虑上下文、对话环境、文化背景乃至历史时期等多重因素才能准确理解其真正含义。 林德曼基于情境知识理论提出,搜索引擎中的AI回答会对情境知识以及用户造成负面的影响。用户期望AI能提供良好、充分且“真实”的答案,但实际情况却并非如此。搜索引擎中AI回答的信息是各种情境知识被分解、传输并重组后的结果。对于AI而言,词语与知识文本是符号或数据,通过算法和模型对词语进行编码、解码和分析,从而掌握词语的字面意义和语法结构。然而,词语与文本背后所蕴含的文化内涵、情感色彩以及特定情境下的微妙含义,对AI来说却是难以跨越的障碍。 尽管LLM在模仿人类语言结构方面表现出色,但它并未能像人类那样真正“领悟”文本背后的深层含义。如果说人类语言因其多元素融合性使得语言并不总是表征理解,无法时刻表达世界之真,那么,这正揭示了语言的本质是能够表达思维,在产生过程中需要人类多感官系统协同作业。整合知识文本的AI是由一个非实体、非情境的算法构成的,而处理这些知识文本的算法并未具备化身、情境和生活经验。正如艾米莉·本德和亚历山大·科勒所指出的,“语言建模任务由于仅使用形式作为训练数据,原则上无法实现对意义的学习”。人类在互联网上发表的知识文本内容,可以在一定程度上展示出他们的创作流程、信息来源以及切身的体验感受。AI在处理抽象与具体概念之间的转换时也遇到难题。例如,当面对“幸福”这类抽象概念时,AI可能无法将其具体化到特定的情境中,从而忽视了这一概念在不同文化情境下的独特内涵。 更严重的是,AI会从各种情境中提取知识,进行混合与链接,这一过程往往导致提供的信息不仅失去了原有的情境特性,还可能出现不同背景知识的混杂,从而导致其提供的知识在情境上的混乱。当数据算法将原始文本与其他文本综合处理以生成输出结果时,原本依附于特定情境的信息便荡然无存。因此,用户很难追踪到AI搜索提供知识的确切来源,即便部分AI回答会提供相关的链接,但这些链接也并非AI生成答案时唯一直接参考的知识源头。 (二)人工智能搜索提供的单一视角 哈拉维的情境知识理论不仅关注个体的知识,还强调在多重视角之间的对话和交织。她提出认知主体的“部分性”观点,指出个体的知识往往受到局限,不能反映全貌,“我们也必定要从某些观点中寻找角度……构建世界的有力知识,而不是依靠统治轴心来组织的知识”。每个主体都在特定的社会网络和关系中形成其理解,因而所看到的世界是局部的。“因此,只有当所有视角都是部分的、主动的和特殊的时候,世界的真理性知识才会显现。”哈拉维对被压制者视角的重视,赋予那些常常被忽视或边缘化的个体和群体以知识生产的地位。 而在搜索引擎中使用LLM来生成知识信息的新方法,可能会对知识搜索的多元视角交互造成威胁。齐拉格·沙阿和艾米丽·本德在其论文中探讨了搜索系统随着技术发展而变得更加复杂和不透明的问题。搜索引擎转向利用LLM来自动生成针对用户查询的文本回答,目的是为用户提供更加高效、智能且个性化的搜索服务。然而,这种由AI直接提供的文本答案,在一定程度上简化了原本复杂的搜索查询过程,减少了答案的视角多元性。正如沙阿和本德提出的“搜索的偶然性”概念,强调了用户在知识搜索过程中意外邂逅与查询紧密相关且极具价值信息的潜力。这些不期而遇的知识点,往往能为用户带来额外的洞见,或激发其深入探究相关领域的兴趣。但在AI驱动的搜索引擎环境下,这种有意义的“搜索偶然性”恐面临被削弱乃至消失的风险。相较于传统的网络搜索方式,AI搜索回答的答案虽快速直接,却未能充分展现知识搜索过程中那份不可预知的偶然性与多元性。这一变化无形中限制了答案的潜在范畴,也窄化了与搜索主题相关联的知识广度。 正如波塔斯特所言,只显示一个答案会向用户传递一种“无话可说”的强烈信号,而AI搜索知识直接提供答案无疑会加剧这种倾向。尽管有些AI在给出答案时会附上可能引用的网络链接供用户进行信息验证,但用户往往不太可能点击这些链接进行进一步探究,因为他们采用AI的回答就是为了能够快速便捷地获取知识。此外,搜索引擎中AI回答窗口的限制可能导致重要信息被简化或截断。 (三)人工智能搜索对知识与用户的负面影响 搜索引擎中融入AI的直接回答功能,正引发知识的去情境化与“密封”困境。这一变革对知识传播的方式及对知识本质的理解产生了显著影响, 也削弱了用户在知识信息获取过程中的主动性与主体性。 AI搜索知识在知识传播中虽有其便利性,但也存在显著的困境,主要体现为简化复杂性、缺乏情境性以及造成知识的“密封”。AI搜索倾向于以快速简洁的方式呈现信息,虽满足了即时需求却可能掩盖知识的深度与广度,导致用户在复杂领域可能产生误导性理解。同时,缺乏社会情境性的知识提供忽视了上下文和背景信息,使用户难以理解知识的全面背景框架,特别是在跨文化情境中,易引发误解和刻板印象。这不仅限制了用户的知识视野,还加剧了跨学科理解的难度,并在互联网环境中促进了知识霸权的形成,使得边缘化声音被进一步忽视。 在AI时代,用户的知识获取模式正经历着深刻的转型,并伴随着其对用户本身产生的深远后果。首要的变化在于用户的身心离场,传统知识获取中直接的身体参与感官体验在网络虚拟环境中显著缺失,导致知识与个体身体及具体情境的内在联系被割裂,用户多以旁观者的视角被动接收信息,这不仅削弱了情境理解的主动性,还使知识获取变得片面。此外,用户的主动性与主体性也在AI主导的数字知识环境中面临挑战,数字界面限定了观察与理解信息的固定视角,加之AI算法在信息筛选与推荐中的主导地位,用户愈发依赖算法而非主动探索,进而抑制了个人思考与责任感的培养。当生成式大模型可以为人提供快速简洁的答案时,人的批判性思考与解决问题的能力很难不被削弱。数字技术与AI虽提升了信息处理效率与用户体验,却也构建了一个暗含多重风险的“密封”信息生态系统。算法设计的复杂性与技术“密封表面”削弱了用户的自主控制感,可能导致对知识信息的被动误解。 因此,在拥抱和享受AI技术带来搜索知识的便利时,我们必须警惕其算法局限性带来的知识去情境化和知识“密封”的困境,以及对知识传播和用户主观性的不利影响,致力于构建更加全面、丰富且情境化的AI搜索与理解框架。 四、将人工智能搜索置于 知识责任和技术发展之间 在信息时代的背景下,搜索引擎已跃升为知识与技术交融互动的核心节点,其角色远超传统信息检索工具的范畴。随着AI技术的飞速进步,搜索引擎在极大地提升信息搜索效率和带来便捷性的同时,也面临着一个深刻的挑战:如何在技术革新与知识责任之间找到恰当的平衡点。这一平衡不仅关乎AI技术本身的健康发展,更关乎社会知识信息的公平、公正与知识传播的全面性。 知识搜索绝非孤立的技术行为,而是一种深深嵌入社会结构与文化背景中的实践活动。它不仅仅是基于关键词的文本匹配或答案的自动生成,更是用户认知需求、社会文化背景与技术支持三者之间复杂互动的结果。因此,搜索引擎的设计与优化,不能局限于算法效率与准确性的提升,更应关注如何为用户提供更加丰富多元且符合其情境需求的信息交互方式。这要求在技术层面不断创新的同时,必须深入理解和尊重社会情境、文化背景与认知习惯。解决AI搜索知识的去情境化及“密封”困境,需从社会维度与技术维度综合考量。在社会维度上,搜索引擎应承担起知识传播的责任,确保信息的全面性、准确性与多样性,避免去情境化与知识偏见的形成。在技术维度上,需关注AI技术的算法局限性及其副作用。 (一)搜索引擎的知识责任 在当前数字化时代,在线搜索引擎普遍展现出一种强调速度与便利性的发展趋势,这成为搜索引擎主动融合人工智能技术的重要驱动力。然而,搜索引擎的职责远不止于简单地匹配关键词或产出答案。一个真正完善的、负责的知识搜索处理机制,应当致力于为用户提供更多与信息进行有效互动并赋予其意义的途径。这意味着,搜索引擎不应仅仅局限于依据相关性和有用性的编程标准来检索信息,而应更加注重信息的上下文、用户的意图以及用户与信息互动的方式和效果。 知识的搜索本质上是一种与知识情境性紧密相关的活动。它不仅仅是技术层面的文本匹配和文本生成算法的组合,更涉及用户的认知框架、文化背景和社会环境等多个维度。因此,一个优秀的AI搜索在处理结果时应当能够理解和适应这种复杂性,为用户提供更加全面、深入且符合其需求的搜索结果。它应当鼓励用户与信息之间的深度互动,帮助用户理解信息背后的含义、筛选有价值的信息,并在这个过程中赋予信息以新的意义。 (二)搜索引擎的技术革新 就技术维度而言,提升AI技术的透明度与可解释性,对于解决AI搜索知识的去情境性问题和“密封”困境至关重要。搜索引擎系统需改善AI系统设计并采用透明的算法机制,在设计AI和搜索系统时,应增加上下文和背景信息的输出。例如,当回答科学问题时,可以附上相关的理论、研究背景和专家观点,以帮助用户更全面地理解问题。数字图书馆通过情境知识集成模型可以获取用户各层次的知识需求,并对其进行准确定位,智能化地预测用户所需的个性化知识与共性知识。AI技术发展(如多轮对话、混合搜索)正在重构知识呈现方式,未来AI搜索可能会从“信息简化为点”转向“点—线—面结合的情境网络”。 此外,搜索引擎中的AI技术还应关注边缘化知识的覆盖问题。在AI技术的驱动下,搜索引擎往往倾向于推荐热门或主流的信息,而忽视那些边缘化或小众的知识领域。这不仅限制了用户的知识视野,也加剧了知识霸权的形成。因此,搜索引擎在算法设计上应更加注重多样性和包容性,确保用户能够接触到更加全面、多元的知识信息。 (三)用户算法素养能力的提升 在人工智能生成内容(AIGC)时代,从用户的个人角度出发,需要不断加强算法素养能力的培养,以便更深入地认知和理解以DeepSeek、ChatGPT为代表的AIGC大模型,能够有意识地加强对数据的管理,降低隐私泄露等潜在风险;同时,能够识别和判断AIGC内容的准确性,降低误导性知识所带来的影响。所谓的算法素养,作为信息素养和数据素养的升华,体现了人类在数智时代适应技术发展的能力。算法素养的核心能力涵盖了算法认知、算法思维、算法动机、算法知识以及算法技能等多个层面。 借助人工智能的可解释性输出,AI的知识组织过程与决策依据能够以可视化的形式展现给人类。通常来说,越粗略的内容解释越易于理解,但其中的知识密度及可信度也越低,而详细的可视化结果则对用户的专业背景及知识水平有较高需求。因此,AI用户应当培养自身知识素养与批判性思维,这也是应对知识去情境化困境的重要途径。用户应学会对搜索结果进行反思和评价,不盲目接受单一视角的信息呈现。通过多样化的知识获取途径和开放性的讨论,用户可以深化对知识的理解和反思,从而构建起更加全面、客观的知识体系。 五、结 语 在技术快速发展与知识责任之间寻求平衡,是当前AI搜索面临的一项艰巨任务。一方面,搜索引擎需要满足用户的个性化需求,提供便捷、高效的信息服务;另一方面,它也应承担起促进知识公平传播、维护信息社会公正与多元视角的责任。这要求AI搜索技术的开发者应在技术发展与知识责任之间找到恰当的契合点,既充分展示技术进步所带来的各种便利,又深刻认识并履行搜索引擎作为信息社会基础设施所承载的责任。 将AI搜索置于社会情境知识责任和技术发展的交汇点,不仅是对搜索引擎技术发展的深刻洞察,更是对信息时代知识传播与知识责任担当的深刻反思。通过综合考量社会维度与技术维度,未来可以在技术革新与知识责任之间找到一条既符合技术发展规律又满足社会需求的发展路径。