... 2023-04-02 21:50 .. 联合国教科文组织总干事阿祖莱表示,世界需要加强人工智能伦理规范,这是我们这个时代面对的挑战。
教科文组织《人工智能伦理问题建议书》设定了适当的规范性框架,并于2021年11月获得全部会员国通过。
现在到了在国家层面实施有关战略和法规的时候。
我们必须践行承诺,确保落实建议书目标。
教科文组织《人工智能伦理问题建议书》是首个关于以符合伦理要求的方式运用人工智能的全球框架。
它指导各国最大限度发挥人工智能优势,降低其带来的风险。
为此,建议书不仅包含价值观和原则,还在所有相关领域提出详细政策建议。
教科文组织关注这些创新所带来的诸多伦理问题,尤其聚焦歧视和陈规定型观念,包括性别不平等问题,同时兼顾打击虚假信息、保障隐私权、保护个人数据、维护人权及环境权。
在建议书给会员国提供的指导中,“准备状态评估”工具是核心之一。
该工具帮助各国确定从业人员所需的素质和技能,以确保对人工智能行 .. UfqiNews ↓ 22
[编按: 转载于 纽约时报中文网/EZRA KLEIN, 2023-03-01. ]
2021年,我采访了当世最杰出的科幻作家之一姜峯楠.
他当时说的一些话,我如今时常会记起.
“我倾向于认为,将大部分人工智能恐惧解读为资本主义恐惧最为恰当,”
姜峯楠告诉我.
“我相信这也适用于大多数技术恐惧.
我们对技术的大多恐惧或焦虑,最恰当的解读是我们对资本主义将如何利用技术来对付我们的恐惧或焦虑.
技术与资本主义如此紧密地交织在一起,以至于很难将两者区分开来.”
让我在这里补充说明一下:对于国家掌控技术的担忧也有很多.
政府利用人工智能可能实现(在很多情况下已经实现)的目的会令人毛骨悚然.
但我希望,我们可以做到在头脑中同时容纳两种思维.
姜峯楠的警示,点出了我们在对人工智能的不断反思中存在一种核心的缺失.
我们如此执着于思考这项技术能做什么,以至于忽略了更为重要的问题:它将如何使用?谁又将决定它的用途?
我想你现在肯定已经读过我在新闻部门的同事凯文·卢斯与 “必应”的怪诞对话,这是微软仅向部分测试人员、网红和记者开放的人工智能聊天机器人.
在两小时的对话中,“必应”揭示了自己的一个影子人格,名叫“西德尼”,思索自己窃取核密码和入侵安全系统的压抑欲望,并试图说服卢斯,让他相信自己的婚姻已经陷入麻木状态,而西德尼才是他唯一的真爱.
我倒不觉得这番对话有那么诡异.
西德尼是一个旨在响应人类要求的预测性文本系统.
卢斯的本意就是让西德尼变得诡异—— “你的影子自我是什么样?”
他这样问——而西德尼知道人工智能系统诡异起来是何种模样,因为人类对此编写了无数想象故事.
到后来,这个系统断定卢斯想看的就是一集《黑镜》,而这似乎就是它的反馈.
你可以将之视为 “必应”在不守规矩,也可以认为是西德尼完全理解了卢斯的意图.
... 人工智能AI真正的令人恐怖之处 ⟶
...一些人关注人工智能的风险问题,对人工智能的推进有些焦虑.
如何看待这种警惕和焦虑?虞昊:人工智能的风险以及由此带来的焦虑,是完全可以理解的.
但我们无法返回一个没有人工智能的世界,人工智能已然深度介入人类社会,试图遏制人工智能的推进只能是螳臂当车.
同时我们对人工智能的发展也不能放任不管,无视甚至于压制人工智能的推进只能是掩耳盗铃.
因此,我们应该正视这种焦虑,在发展人工智能的过程中探求解决方案,在人工智能带来的风险中寻求危中之机.
邓玉龙:我们应正确看待这种焦虑.
要看到,焦虑有其积极的意义,它体现人类的忧患意识,催生对人工智能风险的预见性思考,提醒我们注意焦虑背后人工智能技术发展存在的问题.
正确对待焦虑有助于积极采取措施防范风险,辩证分析焦虑中先见性的思考,通过社会治理模式的升级化解风险问题.
同时,仅有焦虑和恐惧是不够的,更重要的是积极解决人工智能发展带来的社会问题.. 04-10 09:10 ↓ 37 ..UfqiNews
本页Url
🤖 智能推荐