中国经济网络保留的所有权利
中国经济网络新媒体矩阵
在线视觉音频程序许可证(0107190)(北京ICP040090)
科学技术不仅是AI理论和技术发展的原因和基础,而且是人工智能的用户和影响力。最近,国务院发表了一种观点,即以“人工智能+”的行动将深入实施。其中,“人工智能+”的科学和技术首先被分类以加快重要行动的实施。中国科学院的一名学者张金最近在此版本中写了一篇文章:科学的AI(应用于科学研究领域)已成为促进科学和技术创新的重要支持,以“离开椰子并最终成为Incommon人工telegence(AGI),并最终成为人工智能+”。科学和技术为科学技术社区提供的lenges吗?如何确保技术状况良好?在这个数字中,我们邀请几位专家分享他们的观点。 IA已大大改变了科学研究的范式,并且是科学发现和技术进步的重要驱动力。但是,许多科学研究人员和公众对此有不同的关注。是科学研究还是挑战者的加速器?在过去的十年中,AI面前是一种工具,不是敌人,也不是敌人。 IA技术以令人难以置信的速度发展,逐渐监禁人类生产和科学发现的各个方面。 AI在科学领域非常广泛地进入,并具有牛肉串联代表和出现的应用。例如,在蛋白质结构预测的领域中,阿尔法菲尔德的出现大大解决了生物学社区的“结构预测问题”LF一个世纪,大大加快了药物和分子生物学研究的研究和开发的进步。在健康和健康领域,除了对医学图像的自动诊断外,AI还用于预测药物靶向,分析临床数据并建议个性化的治疗计划,这使其成为医生和科学研究人员的重要工具。这些例子表明,AI不仅是科学研究中的“助手”,而且是逐渐驱动科学前卫的重要力量。现在,在AI的支持下,预计过去可能需要数十年或几十年的任何问题将在数年或数月内花费数十年或数十年的进步。但是,鉴于AI大型模型的突然年龄,许多科学研究人员甚至公众都在许多层面上关注。如果研究管理层失去了重要性:一些最初认为它们可以调查的科学问题AI在短时间内可以克服ONG时间,这使研究人员担心他们的研究不再“赞赏”。对资源的研究IMBILIBRIO:由于大型模型的培训和运作需要巨大的计算机功率和财务支持,因此许多研究小组或中小型机构担心难以参与并完全疏远。传统科学研究方法的“有效性”:有些人担心传统的科学研究方法不再认识到AI的方法是否可以轻松克服传统方法。生成模型中的幻觉问题:大型模型在产生答案时可能会遇到事实上的错误。这在科学研究中可能会产生误导。社会就业中的焦虑:有人担心,如果AI照顾大量的工作任务,许多研究人员和科学工程师可能会失业。这些担忧是合理的,但还需要进行全面和理性的分析。一般而言,作者对科学研究均积极且积极。我认为AI的重要性提高了科学研究的效率。这是广泛接受的,不会在这里讨论。并非所有的研究都必须相信有关资源不平衡问题的大规模模型,而小型模型仍然具有很高的活力。技术的发展具有光和专业模型的连续外观。许多研究团队也可以使用小型模型在特定问题中发挥作用,即使资金有限。这减少了科学研究的门槛,并使更多的人有机会“完成”他们的研究。关于科学研究方法的问题,不应完全放弃传统方法。许多IA设计灵感来自传统的数学和物理方法。思想,例如物理灵感和数学局限性,Rema在深度学习模型的设计中很重要。这也可以解决人工智能的“幻想”问题。传统科学方法与AI模型的结合可以产生更健壮和可靠的结果。生成语言模型中幻觉的问题将是“人工智能 +”科学技术的障碍。科学发现一直是多个阶段的多样化和重点是严格和验证的多样化的过程。 AI提出的结果只是参考。是否可以在最后建立它,它取决于多个测试,例如实验验证,对和临床试验。例如,AI可以帮助您发现可能具有抗癌作用的化合物,但在进入临床实践之前需要进行大量的实验验证,如果最终使用它,则应由医生和监管机构全面确定。换句话说,AI是辅助的,而不是决策者。尽管人类知道自己的决定 – 制定能力,但无需过多担心幻觉。至于科学家是否将被AI取代,Autorores认为AI通常被需要大量时间,费力且高度重复性的任务取代,例如大规模清洁和统计,文献和初步分析的漫长巧合。目前,AI在创意和真正的科学思想方面有明显的不便。科学发现不仅需要数据和计算,而且还需要认识问题和直观的判断。,跨学科相关性,需要选择价值。这些特征在AI上暂时不可替代。因此,我们不必担心“失业”,而是必须积极考虑如何改变角色,如何与AI一起工作并将AI视为增强人类智能而不是竞争者的工具。毫无疑问,AI是Res推动其科学研究生态系统。不仅提出了前所未有的机会,而且还增加了一些合理的关注。但是,从长远来看,AI的积极作用远大于潜在风险。我们要做的就是积极主动拥抱和探索AI前进的方法。 (作者是南京大学计算机科学技术学院的教授)在所有领域都采取了主动行动,包括“人工智能+”科学技术,探索了更多的人工智能实施路线并领导未来技术的设计。那么AI的未来在哪里?开发AI并整合人脑的智能□li guooqi yao Man的变压器体系结构(编辑注:深度学习模型)于2017年启动。它基于简单的神经元和复杂的网络架构。根据规模的定律,模型中的智能水平通过增加网络规模而提高了电子资源和数据数量,并取得了巨大的成功。但这是人工智能的现象吗?我们应该继续沿着跨跨建筑的道路攀登参数吗,还是应该回头并在世界上最精致的智能体系中寻求灵感?在学术界,仍然有很多关于此事的争论。 Deep Leaver的父亲,Turing和著名学者奖(例如纽约大学的Jan Likan教授)获得了诺贝尔奖获得者的支持者,他是纽约大学的扬·利克兰(Jan Likan)教授,他认为Neuroscience是AI发展的重要灵感来源。杰弗里·辛顿(Jeffrey Hinton)透露,克服人工智能局限性的关键是在计算机,科学和生物学之间建造桥梁。反对AI的重要成就的反对者不受神经科学机制的启发,并且将来可能不会使用。但是,单一路线的系统风险不能忽略d。效率,可解释性等诸如效率,可解释性等的限制会沿技术电池放大,并将其发送到所有后续应用。例如,变压器体系结构通过处理长序列而遇到了次要复杂性增长的问题,这显着限制了在长期文本和科学计算等场景中的应用。科学家负责回答未来的问题。您可以简单地遵循规模,继续将AI系统的开发带到更高的水平吗?我们是否应该寻找其他创新的研究地址来进一步优化现有系统?我认为,脑计算机科学可能是AI的未来开发地址。作为最有效的智能系统,人类大脑支持数百亿个神经元和数十亿个突触的复杂动态网络,并具有大约20瓦的能耗,其能量效率远大于现有NG AI系统。这种有效的信息处理机制,尤其是基于事件的分散计算,对多个规模和其他功能的动态,为构建Next -Generation Low -Power和高功率模型提供了宝贵的参考。神经科学,尤其是对人脑工作机制的研究,为AI的未来发展提供了一种新的方式。但是,神经科学和AI技术之间存在明显的差距。从当前的研究来看,神经科学主要关注精细的结构和生理细节,突出了神经元动力学与大脑尺度之间的复杂联系,而AI技术更加关注抽象结构和计算效率,尤其是在计算机 – 范围 – 范围 – 范围的平行方面。例如,在大规模处理并行计算时,GPU(图形处理器)可以实现有效的计算机功率,但是很难有效地支持精细的结构和神经元建模,而神经元建模则集中在C上。urrent神经科学。这在神经科学和AI之间造成了差距。当前的AI模型在神经科学的整合过程中多路复用通常很困难,并且不必说不能扩展它们。扩展到大型计算机型号。尽管遇到了各种困难,但在执行未来的AI的方式上仍然存在争议,但是IA研究人员为他们提供了一种选择:脑科学和人工智能的结合逐渐成为现实,主要发达国家列出了诸如大脑计算机科学,神经元科学,神经元网络以及未来发展的其他重要领域的发展。如果您想在计算领域(例如大脑)占据领导地位,则必须继续加强前卫研究,加强神经科学,心理学,数学,计算机科学,量子科学等领域的横向偏见,扩大和加深基本西奥的范围并加深范围。人工智能的重新研究。认知推理。幸运的是,中国在这个方向上取得了一些进步。当我以研究小组为例时,我成功地开发了一种名为“ Spikingbrain”的大脑模型。评估后,我们以多个中心收率取得了进展。首先,它提供有效的培训,并具有非常低的数据量,从而大大提高了长序列训练的效率。其次,通过数量级,尤其是在超长矩阵处理中提高了推理效率。这增加了人工智能+场景中的效率益处,包括对法律/医疗文档的分析,复杂的智能,大脑计算机界面的复杂模拟,高增强的粒子物理学实验和科学任务模拟场景。再次,我们在国家一级建立了一个大型且受控的大脑生态系统与大脑类似的脉冲体系结构中的刺痛。最后,我们将分散的机制设计到多个尺度上,以强烈支持大型模型,例如低功率大脑。在这个方向上,可以找到新的路径到将神经元的丰富动态特性与生物理性和计算效率相结合的神经网络,建立新一代的常见智能模型,从而探索大脑的科学和人工智能的基本模型结构。 (作者是自动化研究所,中国科学学院和研究人员的研究人员。简单的悲观和乐观情绪是毫无用处的。这不可避免地会导致“伦理差异”。当发生这种情况时,它可以使整个社会成为一个无法难以忍受的成本使社会付出的代价。例如,很难达成共识。它极为差关于规则的内容达成共识,因为所有人/群体都受历史,认知,特定,特定的偏好的影响。人们之间价值观的和解仍然非常困难。当前的研究表明,男士机器和机器的价值的一致性更加困难。瑞士社会学家Nobotney表示,苏黎世Eth Research团队分析了全球公司,专家,政府和国际组织的AI版本的84个道德文件,大约一半的私营部门和其他公共机构的伦敦。研究人员感到惊讶的是,所有文件中没有提到任何道德原则。这个结论足以反映出社会的所有部门只能就人工智能技术的伦理学达成一些有限的共识。尽管所有这些问题和其他问题,都会设计道德规范,并带领“人工智能NCE+“是AI健康发展所需的生态系统。本能地根据自己的利益制定规则。从长远来看,人们很容易使技术变得愚蠢而愚蠢的技术显然是不道德的。但是谁是主要责任能力?此外,开发人员将偏置植入算法中。这可能会在指数传播后创建社会分裂。解决这种道德脆弱性的最直接解决方案是揭示算法。为了避免个人认知局限性,算法甚至可以民主化;具体而言,AI伦理的表述可以集中在四个问题上:公平,责任,隐私和安全问题:在这四个问题中,我们可以组织有权在制定一系列长期伦理规则方面领导领导,这些规则在世界上被广泛接受且普遍。在未来的AI发展中,竞争对道德规则的影响将持续更长的时间。一旦形成了规则语音控制,就很难转移。从这个意义上讲,基于原则而不是借助“人工智能+”的利润制定道德规则是适当的。 (作者是大学历史与科学与文化研究所的教授上海Joton的智慧。博士生)