学术扬chians:大型模型通常“仅限于忘记老年人和学习新知识”。

学术扬chians:大型模型通常“仅限于忘记老年人和学习新知识”。

9月27日,会议2025年的Netase Future在杭州举行,其主题是“以情报来看未来”。该会议由NetEase赞助,由杭州(杭州数字经济办公室),杭州商业局和高科技高科技高科技杭州工业发展区的管理委员会主持。该会议将是第四届全球数字商务博览会的组成部分之一,重点是开发几个人工智能领域并探索未来的趋势。该会议由中国工程学院和其他学者的学者面包Yun-Hei学者领导,并将IA企业家精神,已知投资者和行业领导者的先驱者召集了情报领域的领导者。客人将讨论大型模型,情报恩卡纳达,AI代理商的Vanguard技术进步和商业实施,并将获得新的机会对于有思想冲突的时代。在会议期间,香港理工大学高级人工智能研究所主任杨Qiang,加拿大工程学院的成员和科学皇家科学院的皇家科学院的主要话语是“ AI对AI实施和解决方案的数据问题”。学术杨对指出,AI的快速发展与硬件进度的速度之间存在很大的差距,并且数据供应远远落后于对AI数据的需求的爆炸性增长,这导致了AI发展的瓶颈。此外,人工智能在其实施中面临许多前所未有的挑战,包括数据隐私,安全和岛屿问题。为此,Yang Qian Scholar分享了他的发现。构建一个由典型的基于云的模型和本地垂直域模型改编的体系结构。如何使用此本地私人域数据赋予一般通用模型的能力,同时允许一般通用模型指导推理和本地应用并引起双向合作?是吗?是吗?首先,转移学习可以使模型能够从一个示例中学习并将其应用于另一个示例。 Campos不仅可以迁移,而且您还可以迁移时间,因此昨天构建的模型今天仍然可以完成任务。新创建的模型可以补充昨天的模型。其次,我们使用联邦学习技术。它不仅足以在终端设备(例如手机和平板电脑)之间进行协作,而且还提供了诸如业务合作,财务风险管理和健康分析等方案中的广泛应用观点。同时,将转移学习与知识蒸馏相结合,大型模型可以充当“老师”,并采用小型模型来提高性能。小型模型还可以返回Vertica的知识l领域到较大的模型,实现了双向知识的流动,并提高了一般的智力水平。该技术允许多个感兴趣的各方在培训模型中进行协作,而无需共享原始数据,从而有效地确保用户隐私和数据安全。这位Yang Qian学者强调,“他在联邦界继续学习”可以解决模型时间序列中产生的灾难性健忘的问题。后来学习的东西可能会意外抹去您以前学到的东西,就像熊打破棍子一样。在大型模型中,这种现象非常普遍。解决方案的问题是连续的联邦学习。 Yang Qiang学者说,当将大型模型与许多小型模型相结合时,是生成可用作客户服务系统,个性化对话系统等的新代理商,以进行供应链,风险分析,工作流程等。大型和小型模型的协作引入了ABOVE,智能工厂,联合学习以及对软件解决方案和系统的持续学习逐渐形成。这种情况和工业实践可以继续发展,并具有新的分布式安全架构,可靠性和隐私保护。 (Tianniu)以下是学术Yang Qiang演讲的转录:Yang Qiang:您好,亲爱的领导者和客人!我今天要谈论的是如何使用联邦学习并解决隐私和安全问题来实施应用程序。 Andin第一名,我们可以看到AI目前正在迅速发展,但我们也看到了一些机会。其中之一来自发展失衡。例如,在此图中使用红色曲线代表创新和硬件进步。根据摩尔定律,这会进展。另一个趋势是AI的发展。 AI可以不断重复和创新。这比摩尔的“法律”高得多。例如,每年的成本价格将降低10倍以上。这Speed在硬件和软件之间产生了“差距”,并且此“差距”越来越大。我们研究中人们的目标之一是填补这一空白。你怎么能填充它?另一个趋势是数据趋势。历史上的许多数据是由人类标记和清洁人类产生的。最重要的是,这种速度非常慢。左翼图表中曲线的增长这一趋势。但是,人工智能对数据的需求很大,食欲很高和快速增长速度。以下两条曲线将很快越过:这意味着人类无法跟上机器所需的数据生产速度。在不久的将来,机器中所需的数据将被停止,该数据的来源将成为一个严重的问题。这是否意味着人工智能的发展会找到瓶颈?会议。我列出了一些正确的现象,包括数据量不足和处理数据的能力。我现在回到了我的旧业务。在e财务领域,许多人工智能应用程序必须完成多个数据。例如,许多数据源分配给多个金融机构。您必须回答特定的问题或提出特定的推理。您需要LOTAS数据源。在这一点上,不同数据源的主机必须共同构建模型。目前必须考虑的第一件事是不适当的数据问题的问题,第二个是每个人都愿意合作,第三个是如何确保数据和数据安全性合作时的隐私,最后在分发结果时。这是确保每个人都可以公平,连续地参与数据交换的一种方法。在这一点上,我们所做的研究变得非常有用。研究架构在左边。换句话说,云中有一个很棒的通用模型。出色的典型模型具有强大的培训,学习和推理能力,BUt对垂直域有很多了解。这种垂直知识来自下边缘。底部收集了许多本地数据,包括财务,移动,个人聊天数据,游戏和医疗机构的游戏。令人担忧的问题是如何使用这些本地私人域来增强大型模型,以及伟大的通用模型如何导致本地推理和应用程序可以导致双向合作。因此,除了保护隐私之外,我们还可以互相学习,并在模型之间,从专家到一般到一般到专家之间的模型之间相互学习。首先,转移学习就像学习从一个示例中学习,学习骑自行车行走并自动驾驶摩托车。人类具有这种能力,我们也具有这种建造机器的能力。最近,有重要的模型证据。缺乏大型模型的人类能力和技能是转移知识的能力D从示例中学习。这是必需的技能。转移学习从过去开始。该领域有20年的发展历史,是自动学习的领域。在小型模型的时代,我们使用源源来迁移到新字段,原点和目的地域。迁移的对象可以是数据本身,模型的一部分或目标本身的一部分。我们的目标是换茶以煮咖啡。该模型是使用回归模型转移到森林模型。但是,伟大模型的到来在转移学习中注入了新的活力。例如,以前有培训的模型,并在培训中进行了许多数据。您会发现某些情况,例如,当特定情况被小数据替换时,右边是一个小圆圈。可以为大型型号调整从大圆圈到一个小圆圈。它兼容。您可以在CSMALL AMPO中调整它。当我们进行研究时,我们关心未来和明天。明天我们W病看看我们是否将在线连接世界上的所有字段和数据源。您能补充它们以使每个人都可以成长吗?这种增长可以在太空中完成,例如可以转移知识和大型云模型的手机。您也可以从时间上进行过渡。昨天我创建了一个模型。今天很方便吗?您可以浏览今天的任务。我可以补偿昨天创建的模型吗?它也可以从关系之前和之后的关系的角度移动,以便它可以在时空移动。将显示网络。有很多迁移方法,但我们面临神经元网络。移动的另一种特殊方法是蒸馏。大型模型中的许多神经元可以在较小的型号中蒸馏出来。这将在设备中看不见,但是任务中的性能等于较大的模型。第二个地址是专门研究联邦学习的。联邦学习的发展仅在六到七年之内,但是发展很快。一方面,每个人都担心隐私,而另一方面,数据没有足够的数据。因此,我们必须与他人合作。尽管我们有合作,但联邦学习存在问题。例如,有研究小组。谁是兴趣,尤其是隐私和数据安全的利益,他们都可以互相学习吗?该图像代表了非常快速的开发,并且非常快。工会学习可以是一种同伴学习。例如,有许多终端。我有一台计算机便携式计算机。它具有iPad,其他人有手机,可以在这些设备之间学习。选择谁将成为您的协调员。协调员可以发现差异。它可以通过知识和转移协调员来帮助我。我们将转移和转移该小组的知识。这样我就知道他知道的,其他人知道我知道的。这是Google指导的方向。创建许多应用程序是许多应用阳离子,包括可以使用的广告建议。另一个是在大型模型出现之前使用它们学习进入。例如,我们正在中国公司进行联邦学习。例如,两家公司都有不同的优先级。一个是互联网公司,另一家是一家电子商务公司。无论他们是否拥有它们,他们都可以将电子商务的知识转移到互联网上,并且他们对用户互联网的理解也可以传输到电子商务。但是,您可以保护用户隐私和数据安全,改善Increat衡量营销的有效性和效率。我们不仅应该保护我们的隐私,而且还必须立即传达这些知识。同时,我们还需要通过传输来取得良好的结果,每个人都可以改善它。这就像经济,需要小的风险和高收益。你能实现这个吗?当然受到自然的限制Al法律“无免费午餐”。它不能具有低风险和良好的结果。这需要特定的余额。可以通过数学来解决这种平衡。如果您喜欢数学,学生可以发挥这一方面,但是我特别的意思是,这项技术现在已经非常成熟,并且已经成为一种数学理论,可以通过不同的数学工具来实现。回到第一个问题,可以在基于大云的模型和许多局部垂直域模型中完成联合或转发学习。有多效果?这很有趣。尽管在行业中并未大规模完成,但我们预测,通过开发各地分发的人工智能,技术在人工智能的未来将非常重要。例如,您可以帮助大型模型的小型型号。我该如何帮助?在右下角,您会找到红色数据库。该数据库是本地私有域数据库。虽然你看不到别人,您可以使用此数据库来训练小型本地模型。当然,这种类型的培训非常好,但是足够了,因为本地数据有限。例如,我经常去对话和聊天系统。个人聊天时间有限,人数也有限。这种类型的数据非常有限,不能在改进模型中发挥好作用。我们将做什么?我是一个很棒的模特,在这一点上,大型模特就像一个老师。我会转换小的本地数据,以便删除我的个人隐私。转换后的数据可以传递到更大的模型以攀登。扩展的数据具有我自己的特征和偏好,以及可以教育小型模型的大型模型的一些功能。随着时间的流逝,我的“老师”逐渐影响了本地模型,并且本地模型变得越来越有能力。还有另一种方式。我可以有多个影响一个出色模型的“学生”,所以现在我使用这种方法,他们也相互学习和补充,一个d在老师和同学的状态中,我们也可以做到。该方法不仅用于扩展本地数据的不便,而且还允许最大的模型教我们如何学习。教师分解了复杂的问题,简单问题中的专业性。这种方法是一条思想链,但是小型模型没有这种能力。一个伟大的模型是如何在保护当地学生的隐私和隐私的同时教老师。这个过程非常有效,提高了安全性和效率,并构建了推荐系统。有许多用于电子商务和简短视频的推荐系统。在在线屏幕上航行时,您将看到来自推荐系统的特征的更精确的建议。知识蒸馏允许在大型和小型模型之间进行双向蒸馏。换句话说,可以教老师的小型模型。大型模型还具有牙医和这种类型的许多任务,因为它们基于本地特征,这些特征可以通过有关牙本质特征的知识和数据来教授大型模型,例如本地牙医以及许多任务。现在还有另一个特别重要的作品。这是沿着知识时间表和模型发展的持续学习。目前,伟大的模型昨天与我学到的知识或所学的知识有所不同,但包括终端和个人,实际上存在时间表问题。如果存在这个问题,学习将是时间和时空的学习。例如,在宇宙中,我们看到我们需要学会识别从上到下的不同动物,但是在宇宙中,它留在右侧,我们昨天学会了识别这些动物,我们有能力明天识别这些动物,因此我们有时间扩展。为什么我们特别分开时间和空间?原因是,如果您以后学习,如果您不小心删除了以前学到的东西,熊会破坏棍子。这种现象在大型模型中是常见的。这是一种灾难性的健忘。如果我们正在学习新的东西,我们将忘记过去学到的东西。这种灾难性的健忘是您学习最后一步而忘记所有前一步的最严重的时刻。这不是我们想要看到的,我们想解决这些问题。因此,该解决方案是联邦持续学习。最后,以上所有内容都可以以代理的形式向用户呈现。您可以想象一个大型模型和许多小型型号。结果,它生成了几个新代理。这些代理可以用作客户服务系统,个性化的对话系统,还可以用于供应链,风险分析,工作流程等。现在到处都有代理商,但是代理商的发展处于早期阶段。但是,必须生成未来的代理并修改自动莱。在某些代理商周围不自觉地出现了不知不觉中。在这种情况下,您必须在每个模型之间等待一个网络,以便最大的模型可以接收当地。特别重要的是,它需要具有智能计划能力,以解决整个时间表中的问题并解决问题。此功能在大型模型中尚不可用。有许多示例,例如银行系统,代理总是会产生代理作为退出。我现在可以告诉您的是我介绍的大型和小型模型的合作,智能工厂,联邦学习和持续学习,这些学习已经以软件格式和系统生成。目前,我们正在调查以提供每个大型模型设计,这使我们能够拥有新的连接安全性,可靠性,隐私保护体系结构。谢谢大家!

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注