首页 > 资源分享 > 资源分享 > 谁能拉好AI发展的“警戒线”

谁能拉好AI发展的“警戒线”

发布时间:2024-05-21 16:59:59来源: 152102

据媒体报道,近期美国麻省理工学院一个研究团队称,部分人工智能系统已经学会如何欺骗人类,其中包括部分号称已被训练成乐于助人和诚实的系统。该研究成果发表在美国细胞出版社旗下的《模式》杂志上。

尽管有研究人员称该现象对人类并未造成不利影响,但欺骗性人工智能的出现仍值得警惕。近年来,人工智能的发展就像一条平坦宽阔的高速公路,研究人员驾驶着“科技”的快车向未来全速前进。但若只顾着追求更高、更快、更强,在科研竞速中必然会导致“脱轨”与“失控”。因此,拉好AI发展的“警戒线”至关重要,而拉紧筑牢这道技术与安全的防线,需要所有参与者的共同努力。

不为科技而科技,不为创新而创新,应当是一切人工智能发展的准则和所有研发者的底线,却由于拜技主义者的抵制而一再失效。2023年6月,欧洲议会通过了全球首个AI综合性监管法案《人工智能法案》,但由于openAI、谷歌、微软等多家科技巨头以“阻碍AI创新”为由提出反对,并未成功将通用AI(AGI)列入高风险类别,导致法案无法适用于军事、国防、科学研究。

由此可见,若想真正监管AI发展,技术背后的“人”首先需要达成共识,认可彼此所肩负的共同的社会责任。风物长宜放眼量,就像医生不能只看病历,科研工作者也不能只专于技术创新。正如英国剑桥大学人工智能研究员哈利·劳所说,“监管机构和人工智能公司必须仔细权衡技术造成危害的可能性与其对社会的潜在利益,并明确区分模型能做什么和不能做什么”。在欧盟的“人脑计划”项目中,除了神经科学家、计算机科学家负责技术研发,还有伦理学家、心理学家、社会学家对大量脑数据使用的伦理问题进行评估及研究脑科学发现对社会的影响。只有不同领域的专家共同努力,才能及时洞悉事态变化,预测潜在风险,在技术发展的同时提供多元视角的保障。

其实早在2017年,一些人工智能领域的科学家、工程师、研究学者以及科技企业家们,就建立了确保AI为人类利益服务的23项原则——“阿西洛马人工智能原则”,但由于这一原则并没有被正式采纳为全球性的法律,不具有强制性和规范性,各国实施情况并不乐观。因此,在专家学者自行协定的原则之外,由能够颁布限制性文件的国际组织从国际层面发挥作用更为必要。只有拥有众多缔约国的规范性文件,才能切实有效地引导、规制人工智能技术的发展。

在人工智能发展的全球性趋势下,往往一个微小的变化就有可能引发世界范围的波动与震荡。在这场与人工智能的博弈中,没有一个国家能独善其身。科技革命加速正在进行时,只有各国、各领域、各利益主体共同努力,携手拉好、拉紧规范科技发展的“警戒线”,AI才能行稳致远,一路畅通。

资源分享更多>>

听劝!想买洗衣机的朋友先忍忍,明天TCL新品洗衣机会颠覆你想象 TCL华星印刷OLED专显屏已实现交付 未来产线产能预计扩充至10K以上 中兴通讯:2025年3月20日 公司揭秘 股价再创历史新高!小米史上最强年报出炉!雷军紧急调整全年目标→ 西十高铁通信工程建设进入全面施工新阶段 苹果可折叠iPhone的传闻听起来开始变得真实起来 一场关于电视的革命,从TCL春季发布会开始 用十年磨一剑的坚持,TCL重新定义了你的客厅视觉体验 祝福!41岁武汉歌手和马布里恋爱,与网友互动官宣,和加内特聚会 我所在地的医保政策怎么查?国家医保局解读 江苏多地招聘新教师!找工作的你,1100多个编内岗等你来 平原县县属国有企业公开招聘33名工作人员 中兴智能汽车取得大流量导风罩结构专利,主动增大流过散热器风量 大学生找月薪8千工作倒欠2万7 秦岚魏大勋还在一起 疑似同居 金秀贤的师父裴勇俊争议经历再被扒 全国大部分地区“换季式”大回暖 网友为小米卫生巾设计图和广告词 香港四大家族创始人只剩李嘉诚健在 赵丽颖对都敏俊人设的评价成真了 315后小米撤回“不做卫生巾” 美国娱乐公司宣称正改编哪吒 最敢生的省份也开始“抢人”了 周星驰新片将开机 演员阵容遭质疑 雷军说第一个接受采访有点小紧张 大学女生1年攒5万元游遍20多城 雷军为不锈钢纸杯征名 代表建议尽早实施12年义务教育 李嘉诚拟228亿美元卖掉巴拿马等港口 1.88元考试神器换名再上架