“人工智能 +”科学技术 - 如何了解机会以及如何?
中国经济网络保留的所有权利
中国经济网络新媒体矩阵
在线音频 - 视觉节目许可证(0107190)(北京ICP040090)
科学技术不仅是发展人工(AI)理论和技术的资源和基础,而且是人工智能的用户和影响者。最近,国务院发布了“关于“人工智能 +”行动的深入实施的意见。其中,“人工智能 +”科学技术以前在加速基本行动的实施方面被排名。中国科学院学者张金最近在此版本中撰写了一篇文章:科学的AI(AI应用于科学研究领域)的能力,并最终导致通用人工智能(AGI)。 AOF“人工智能 +”科学技术带给科学和技术社区的机遇和挑战是什么?如何确保技术好吗?在这个问题中,我们邀请一些专家谈论他们的观点。 AI加深了科学研究的范式,并已成为科学发现和技术突破的重要驱动力。但是,许多科学和公共研究人员对此有不同的关注。 AI是科学研究的加速器还是具有挑战性?与人工智能打交道一直是一种工具,而不是对手□李·钦吉(Li Chongyi)在过去10年中,AI技术以惊人的速度形成,并逐渐渗透到人工劳动的各个方面和发现科学方面。 AI广泛进入了科学领域,并且出现了一系列代表和申请。例如,在蛋白质结构预言的领域,αFafold的出现几乎已经解决了半世纪生物学界的“结构预测问题”,这极大地加速了医学研究和发展的发展和分子生物研究的发展。法。在医疗和健康领域,除了自动医学成像检查外,AI还用于针对药物预言,临床数据分析以及有关治疗计划的个性化建议,这成为医生和科学研究人员的必要工具。这些例子表明,AI不仅是科学研究中的“助手”,而且逐渐成为驾驶科学领先的重要力量。在过去的几年甚至几个月中,在过去的几年甚至几个月中,可能会在过去的几年甚至数十年中要克服几十年甚至数十年的问题。但是,面对大型AI模型的突然时期,许多科学研究人员甚至公众都在不同的层面上担心。如果研究方向徒劳无功:最初认为很长时间研究的一些科学问题可能会在短时间内被AI克服,因此提醒研究人员的研究不再“有价值”。无限resEARCH资源:由于大型模型的培训和操作需要巨大的计算强度和财务支持,因此许多研究小组或中小型机构发现很难参与,并且他们担心被完全边缘化。传统科学研究方法的“有效性”:当AI方法可以轻松克服传统方法时,有些人会记住传统的科学研究方法不再认可。幻觉问题 - 生成模型:大型模型在开发答案时会遇到现实的错误,这在科学研究中可能会产生误导。社会就业焦虑:一年历史,尽管人工智能接受了大量的工作活动,但大量的科学研究人员和技术人员可能会失业。这些担忧是有道理的,但它们也需要全面,理性的分析。五月的认为,通常,AI有一个posi对科学研究的影响和积极意义。人工智能将提高科学研究的技能,科学研究已被广泛接受,在这里不会讨论。关于资源不平衡问题,并非所有研究都需要依靠大型模型,而小型模型仍然具有很高的活力。随着技术的发展,轻型模型和专业模型不断出现。许多研究团队也可以使用小型模型在特定问题中发挥作用,即使他们的资金有限。它可以减少科学研究的阈值,并使更多的人有机会“完成”研究。关于科学研究方法的问题,不应完全放弃传统方法。许多AI设计灵感来自传统的数学和物理方法。诸如身体灵感和数学障碍之类的思想在深度研究模型的设计中仍然具有重要价值。它还可以解决人造的“幻觉”问题ligence -Integration-包括AI模型中的传统科学方法可以产生更稳定和令人难以置信的结果。生成语言模型的幻觉问题不应成为“人工智能 +”科学技术的障碍。科学发现始终是一个多阶段和多验证的过程,重点是严格和验证。 AI建议的结果只是参考。如果最终可以确定它们取决于许多测试,例如验证实验,同行评审和临床测试。例如,AI将有助于发现化合物可能具有抗癌作用,但是在进入诊所之前,它仍然需要大量的实验验证,如果最终使用它,则应由医生和监管机构对其进行全面判断。换句话说,AI是贡献者,而不是决策制造商。只要人们了解决策的最终力量,就无需担心幻觉。至于作者是否认为科学家是否被AI取代,通常会被时间避免,清洁劳动,热情的活动和初步评论等。这些功能暂时无法用AI代替。因此,我们应该积极考虑如何改变职责,如何与AI一起工作,并将AI视为增强人类智能而不是竞争对手的工具,而不是记住“失业”,而是应该积极考虑如何改变职责,如何将AI视为一种工具。毫无疑问,AI是科学研究的重塑生态系统。它不仅带来了明确的机会,而且引起了一些合理的关注。但是从长远来看,AI的积极作用大于潜在风险。我们要做的就是紧紧拥抱并探索如何进行AI开发。 (May -set是南凯大学计算机科学技术学院的教授),仅通过采取更多途径来实施AI并领导未来技术的安装,我们就可以在包括包括的所有领域中包括“人工智能 +”科学和技术技术。那么,AI的未来在哪里?建立AI并包括人脑智能□Li Guoqi Yao Man's Transformer架构(编辑注:模型的深度模型)于2017年推出,被认为是当前人工智能模型的技术基础。它基于简单的神经元和复杂的网络体系结构。比例定律,它通过增加网络量表,计算源和数据量并取得巨大成功来提高模型智能水平。但这是AI的未来吗?我们是否应该继续扩大变换架构路径中参数的大小,还是应该回顾一下,从世界上最聪明的系统《人类脑》中寻找灵感吗?关于这一点,学术界仍然有许多辩论。支持者,例如诺贝尔奖获得者和深入研究的父亲,以及杰弗里·辛顿(Jeffrey Hinton),图灵奖得主和纽约大学教授杨·拉肯(Yang Lakun)等著名学者。反对者认为,重要的AI成就并未受到神经科学机制的启发,将来可能不会使用。但是,单一路线的系统风险不可忽视:它在效率,可解释性等方面的自然局限性将与堆栈技术一起加强,并可以发送到所有自大计划。例如,在处理长期 - 跟随,seriou时,变形金刚架构存在次要复杂性问题狡猾地将其应用限制在长期文本和科学计算等方案中。科学家有责任回答这个问题:只能继续以继续将AI系统发展到更高层次的规模上继续增长?我们应该寻求其他方向以突破以更好地优化现有系统吗?我认为,大脑计算可能是AI未来发展的方向。人类大脑被称为最有效的智能系统,它支持一个复杂的动态道路网络,即数十亿个神经元和10万亿个突触,电力消耗近20瓦,其能源效率大于任何现有的AI系统。处理此信息的有效机制,尤其是驱动驱动的,稀疏的计算,多尺度动力学和其他功能,为开发下一代低功率和高性能AI模型的开发提供了重要参考。 neuRoscience,尤其是其对人脑工作机制的研究,为未来的AI发展提供了新的途径。但是,神经科学和AI技术之间存在明显的差距。在当前研究的判断中,神经科学主要集中于精细的结构和生理细节,强调神经元与脑规模动力学之间的复杂联系,而AI技术在抽象结构和计算效率方面支付了莫伦辛,尤其是在大型计算中。例如,在处理大规模计算时,GPU(图形处理器)可以实现出色的计算强度,但是它们很难支持当前神经科学重点关注的精细结构和神经元建模。这会在神经科学和AI-当前的AI模型之间造成差距,通常很难将复杂的结构纳入神经科学,只是让其扩展到扩展到大型计算模型。虽然仍然有骗局关于未来实现AI的途径的曲折,尽管遇到了各种困难,AI研究人员已经提供了选择 - 脑科学和人工智能的整合逐渐成为事实,而前浏览国家则列出了脑计算,神经网络等的研究和发展,例如作为未来发展的主要领域。如果您想在大脑计算领域占据领先地位,则应继续加强天堂和复杂的认知推理。幸运的是,中国在这个方向上取得了许多突破。让我被发现的研究团队作为一个例子,我们成功地开发了“ Spikingbrain”大脑的模型。审查后,它在许多主要表现方面取得了突破。首先,它在大量数据中实现了出色的培训,从而显着提高了长期培训的效率。其次,其概念的效率是UL的数量级改进的顺序Tra-long。这使其成为“人工智能+”方案的重要效率,例如法律/医疗文献检查,复杂的多智能模拟,脑部计算机界面,具有高能量科学和科学科学的物理实验。同样,它像大规模的生态系统一样建立了一个在国内控制的大脑,该大脑支持现有的变压器模型的有效转换为脉冲样体系结构。最后,它设计了一种多尺度的稀疏机制,可以为具有低强度大脑的大型大脑样模型提供强有力的支持。结合了这个方向,我们可以找到通往神经网络的新途径,该神经网络将神经元的丰富动态特性与生物化理性和计算效率相结合,并开发了新一代的一般智能模型,从而探索了脑科学与人工智能的基本建筑模型之间的桥梁。 )因此,如何确保此双刀片总是很好吗? AI的使用是基于原则而不是利益□li xia yue,带给我们人工智能的变化都在周围及其周围。这个时候的人们见证了一场新的工业革命。我们面临的问题之一是如何在将来创建它既友好又体面,这要求我们设定一些“护城河”规则。因此,我们必须加强寻找人工智能伦理的研究 - 即使我们不确保我们总是一劳永逸地正确的,至少我们可以为人工智能的适当发展提供一些受控的防御机制。那么,在技术领域应该做什么准备?我们需要清楚的是,在技术的发展和技术重复的加速过程中,人工智能将显示更多的机会和不确定性。在2025年博览会世界人工情报会议上,诺贝尔奖获得者杰弗里·辛顿(Jeffrey Hinton)说我将永远不会被删除。每个人都可以做到这一点是开发不会夺取人们权力的“良好AI”。在AI的“ ARM Race”的时候,深入研究的老年专家Hinton对人工智能有轻微的悲观论点,并不意味着夸张。在这里,我们想谈论一种现象-Technologyiya de -domain。 SO称为“技术不在领域”现象是指已从人类控制中删除的技术。这对AI来说很明显。 GPT-4和Alphago等技术软件是一个黑匣子。信息的输出和决定是基于各种不透明和超级复杂的微信号链。面对新技术革命的到来,简单的悲观和乐观情绪是没有用的。对于人类的平均未来,我们必须为未来做准备,并设计某些标准,以排除人工智能的发展。有很多困难和挑战。例如,道德政策的滞后。伦理政策的理想状态是预言技术的重复,但不幸的是,人类社会政策的变化总是变化较慢。这不可避免地会导致“道德多样性”,尤其是对于以AI为代表的高科技,这变得越来越知道。因此,“道德失败”和“道德真空”奇迹将不可避免地在某些领域发生,而对于全球技术来说,这种可能性将大大增加。当这种情况发生时,整个社会可能会使您损失一个难以忍受的社会。例如,很难达成共识。道德政策的制定需要共识。但是,随着AI伦理的提出,一个非常困难的观点是因为所有/群体都受到特定的历史,给予,偏好和价值观的影响,因此很难在政策内容上达成共识。在人之间保持一致的成本仍然非常困难。当前的研究表明,人机和机器机器之间的价值的PAG-ALIGN更加困难。瑞士社会学家诺沃特尼(Novotney)提到,苏黎世Eth Research团队已审查了84个在AI发行期间由公司,专业团体,政府和国际组织发行的道德文件,几乎来自私营部门,而另一半则来自公共机构。研究人员得知每个文件中没有提到的道德原则感到震惊。这个结论足以表明,社会的所有部门只能达到人工智能技术伦理的一些有限同意。尽管所有这些问题和其他问题,但道德政策的设计,甚至以“人工智能 +”为领先的目标是我们的目标,也是健康开发AI的必要生态系统。可能 - 认为人工智能道德政策最基本的起点之一是:它应该基于Prin密码而不是利益。从宏观的角度来看,相关的管理部门和技术部门应承担更大的责任,并且不能完全让人取代AI道德政策的制定。领先的AI公司目前正在启动许多AI的道德政策。企业自然会根据自己的利益制定政策,这可能会带来主要的道德风险。就像某些人工智能产品的算法粘性的问题一样。麻省理工学院技术研究所的最新研究表明,长期以来与Chatgpt的写作是大脑的Gaga Gagawa“要愚蠢。普遍,可以减少道德风险的出现。一套长期的道德规则,可以被世界广泛接受和普遍。可以说,在AI发展的未来,竞争对道德政策的影响将持续更长的时间。因为当形成规则话语的主导地位时,很难采取行动。从这个意义上讲,借助“人工智能 +”的帮助,基于原理而不是利益制定AI伦理政策是及时的。 (那些被固定的人是上海乔孔大学历史与科学与文化研究所的教授;博士生)