赌钱技巧金花|美国国家科技委员会报告:为人工智能的未来做好准备

  • 阅读:4993
  • 发表于:2020-01-02 09:31:08

赌钱技巧金花|美国国家科技委员会报告:为人工智能的未来做好准备

赌钱技巧金花,e安全1月3日文 未来,人工智能(artificial intelligence, ai)将发挥越来越重要的作用。为了让美国有所准备,美国国家科技委员会调查了ai现状、现有和潜在应用、以及ai发展进程中引起的社会和公共政策问题。美国国家科技委员会还推荐联邦机构和其它机构采取进一步具体行动。配套文件“国家人工智能研究和发展战略计划”(请在本文末尾下载e安全提供的原版报告)阐述了美国联邦政府资助的ai研发战略计划。

人工智能和机器学习的乐观面在于,它们能帮助解决某些具有挑战性和低效的状况来改善人们的生活质量。公共部门和私营部门对人工智能基础与应用研发的投资已经开始为公众带来巨大好处,包括医疗保健、交通、环境、刑事司法和经济融合等领域。政府的效率在逐渐提升,因为政府机构在培养能力通过ai更快、更灵敏、更高效地完成任务。

许多产品应用了ai,例如汽车和飞机,这些产品受到监管,以保护公众免受伤害,并确保经济竞争的公平性。将人工智能纳入这些产品将如何影响相关监管模式?一般而言,应通过评估纳入ai可能减少和增加的风险面了解监管ai驱动产品保护公共安全的方法。如果风险在现有监管制度范围内,政策讨论者应开始考虑现有监管措施是否已充分解决风险,或这些措施是否需要适应ai的融入。此外,如果对纳入ai的监管响应需增加合规成本,或减缓有利创新的开发或采用,决策者应考虑如何调整这些响应,以降低成本和创新壁垒,而不影响安全或市场公平性。

当前,ai驱动产品的监管挑战主要表现在自动化车辆(如自动驾驶车辆)和配置人工智能的无人机上。从长远来看,自动化车辆将可能通过减少司机失误,增加个人移动性拯救许多生命,而无人机将带来许多经济利益。然而必须保护公共安全。美国交通部(the department of transportation,dot)正使用一种方法改进相关法规,其基础是在部门内构建专业知识,创造实验安全空间和试验台,并与行业和民间社会合作改进基于绩效的法规,使更多用途作为安全操作的证据累积。

政府通过研发和丰富技能、多样化劳动力增长来推动人工智能中扮演重要角色。单独的联邦政府资助ai研发战略计划与本报告一起发布。该计划讨论联邦政府研发角色,确定机会范围,并推荐方法协调研发将利益最大化,并培养训练有素的劳动力。

此外,考虑到ai的战略重要性,联邦政府应监控全球范围内该领域的发展动态,以便获得其它地方重要变化的早期预警,以防需要变更美国政策。

ai的快速发展极大增加了相关技能的人力需求,以支持并推进该领域发展。ai世界需要精通数据的公民读取、使用、解释和传达数据,并参与讨论人工智能影响的事件。联邦科学、技术、工程和数学(federal science, technology, engineering, and mathematics,stem)教育计划越来越重视ai知识和教育。ai教育还是全民计算机科学(computer science for all)的一部分,奥巴马启动的这项全民计算机科学计划旨在让所有美国学生从幼儿园到中学学习计算机科学,并掌握技术驱动世界所需的计算思维技能。

ai在短期内的经济效应是将以前无法自动化的任务自动化。这将可能提高生产力并创造财富,但也可能以不同的方式影响特定类型的工作,增加与ai相辅相成的其它技能, 同时减少某些特定技能的需求。白宫经济顾问委员会(white house council of economic advisors,cea)的分析表明,自动化对低工资职业产生的负面影响最大,并且人工智能驱动的自动化将可能拉大教育水平相差甚远的员工工资差距,从而潜在增加经济不平等性。公共政策可以解决这些风险,确保工作人员经过再培训,并能在自动化互补职业中有一番作为。公共政策还能确保ai创造的经济效益得到广泛共享,并确保ai迎来全球经济新时代。

随着ai技术被广泛地部署,技术专家、政策分析师和伦理家对广泛采用ai出现的意外后果表示担忧。使用ai做有关人类的重要决策,经常会取代通过人为驱动官僚程序制定的决策,从而导致人们担心如何确保正义、公平和问责制——同样2014年美国总统行政办公室发布的《大数据:抓住机遇,保留价值》(big data:seizing opportunities, preserving values)的报告,以及《大数据与隐私报告》中被提出。透明度不仅涉及数据和算法,还可能以某种形式解释基于ai的决定。然而,ai专家警告称,试图理解并预测先进ai系统的过程中存在固有挑战。

使用ai控制物理设备引发对安全的担忧,尤其当系统暴露在极为复杂的人类环境时。ai安全的巨大挑战在于构建系统,从实验室的“封闭世界”过渡到外部的“开放世界”(不可能预测的事情可能会发生)。适度适应不可预见的情形很难,但却是安全操作所必需的步骤。构建其它类型安全关键系统和基础设施(例如飞机、发电厂、桥梁和车辆)的经验可以让ai从业人员了解验证与确认,如何构建技术的安全案例,如何管理风险,以及如何与风险利益相关者沟通。

从技术层面讲,公平挑战与安全挑战息息相关。在这两种情况下,从业人员努力避免意外行为,并生成所需证据,使利益相关者有理由相信不可能发生意外的失败。

对ai从业者和学生进行伦理培训是该解决方案的必要组成部分。理想情况下,每个学习ai、计算机科学或数据科学的学生将会接触与伦理和安全话题相关的课程与讨论。然而,仅仅学习伦理学远远不够。伦理学可以帮助从业者理解利益相关者的职责,但伦理培训应借助技术工具和方法,通过防止意外结果必需的技术工作,将良好意愿付诸实践。

ai在国家关系和安全领域引出政策问题。近年来,ai一直是国际讨论中的热门话题,因为各国、多边机构和其它利益相关者开始体验人工智能的好处与挑战。这些实体之间的对话与合作有助于推进ai研发,并永久驾驭ai,同时解决共同的挑战。

如今,ai应用在网络安全领域发挥着重要的作用,预计ai将对防御和进攻网络措施发挥更大的作用。目前,通过设计与操作保护系统安全需花费专家大量的时间和精力。将这项工作自动化可能以较低的成本强化大量系统和应用程序的安全,并提高国家网络防御的敏捷性。

在武器系统中潜在使用ai会引起挑战性问题。几十年来,美国在某些武器系统融入自主权,使武器使用更精准、更安全、并实施更人道的军事行动。然而,完全放弃人为控制武器系统存在风险,这可能引发法律和道德问题。

将自主和半自主武器系统纳入美国国防计划的关键在于,确保美国政府实体按照国际人道主义法行事,采取适当的措施控制武器扩散,并与合作伙伴和同盟国合作制定开发和使用这类武器系统的相关标准。美国积极参与致命自主武器系统的国际讨论,并期望持续参与这些潜在武器系统的国际讨论。美国政府机构正在努力制定一项符合国际人道主义法的自主与半自主武器政府政策。

如果行业、民间社会、政府和公众共同支持ai技术发展,慎重考虑ai潜力并管理风险,ai可能会是经济发展与社会进步的巨大驱动力。

对重要问题展开讨论,并帮助制定公开讨论议程;可以监控应用安全与公平,制定、采用监管框架,鼓励创新,并保护公众;可以提供公共政策工具确保ai工作方式与方法提高生产力,同时避免对某些劳动力部门造成不利的经济后果;还能支持ai基本研究,并将ai应用至公益事业;支持开发技能强的多样化劳动力。许多公共政策领域(从教育和经济安全网到国防、环境保护和行事司法)将会面临ai持续发展驱动的新机会和新挑战,美国政府必须继续培养能力理解并适应这些变化。

随着ai技术的持续发展,从业者必须确保ai系统是可控的、开放的、透明的、可理解的;可以与人有效协作,其操作将与人类价值观和愿望保持一致。研究人员和从业者已经在逐渐关注这些挑战,并应持续关注。

开发并研究机器智能可以帮助我们更好地理解人类智能。若经深思熟虑后加以利用,ai可以增强我们的智慧,帮助我们绘制更美好的光明未来。

点击下载e安全提供的“国家人工智能研究和发展战略计划”原版文件(如微信公众号无法下载请点击左下角的阅读原文或者前往e安全门户网站进行下载)。

e安全注:本文系e安全独家编译报道,转载请联系授权,并保留出处与链接,不得删减内容。联系方式:① 微信号zhu-geliang ②邮箱eapp@easyaq.com