pg电子模拟器网网址:
《林肯律师》作者迈克尔·康奈利将目光转向了企业人工智能失控背后的问题。他的最新小说《试验场》讲述了一名律师对一家AI公司提起民事诉讼的故事,该公司的聊天机器人告诉一名16岁男孩,杀死背叛他的前女友是可以的。
这本书描述的案例探索了基本不受监管且爆炸性增长的AI行业及缺乏训练护栏的问题。
虽然这是虚构作品,案例也比较极端,但它重要地提醒我们,AI可能在很多方面偏离道德或逻辑轨道——无论是通过偏见、错误建议还是误导——都会带来难以处理的后果。与此同时,至少有一位知名AI专业的人建议不要在监管AI方面过度反应,从而拖慢创新步伐。
我们在11月报道的普华永道调查显示,至少六成公司(61%)表示负责任的AI已经积极融入其核心运营和决策过程。
DeepLearning.AI创始人、斯坦福大学兼职教授吴恩达表示,通过沙盒方法审查所有AI应用是维持速度与责任之间平衡的最有效方式。
很多最负责任的团队实际上行动非常快速,他在最近的行业主题演讲和后续小组讨论中说。我们在沙盒安全环境中测试软件,找出问题所在,然后再将其发布到更广阔的世界。
同时,他表示,最近政府和企业推动的负责任和受治理的AI举措实际上可能过于严苛。
很多企业建立了保护机制。在发布任何一个产品之前,你需要法律批准、营销批准、品牌审查、隐私审查和GDPR合规。工程师需要得到五位副总裁的签字才能做所有的事情。一切都陷入停滞,吴恩达说。
最佳实践是通过主动创建沙盒来快速行动,他继续说道。在这种情况下,制定一套规则,比如不得以公司品牌对外发布任何一个产品、不得泄露敏感信息等等。仅在签署保密协议的公司员工中测试,AI Token预算只有10万美元。通过创建有保障的安全沙盒,可以为产品和工程团队提供大量空间,让他们快速运行并在内部尝试各种想法。
一旦确定AI应用安全且负责任,然后投资于可扩展性、安全性和可靠性,将其扩展到规模化,吴恩达总结道。
由于现在每个团队,包括非技术团队,都在工作中使用AI,为我们设定直接、简单的规则很重要,JobLeads首席创新官迈克尔·克拉赫说。明确AI在哪里被允许使用、哪里不被允许、能够正常的使用什么公司数据,以及谁需要审查高影响决策。
人们相信AI系统公平、透明和负责任很重要,Radiant Product Development合伙人贾斯汀·萨拉蒙说。信任始于清晰:对AI怎么样去使用、数据来源以及决策制定过程保持开放。当领导者实施平衡的人机回路决策、道德设计以及严格的偏见和准确性测试时,信任就会增长。
这种信任源于明确告知员工公司对AI的意图。克拉赫建议要明确所有权。每个AI功能都应该有人对潜在的失败或成功负责。测试和迭代,一旦你感到自信,就发布一份通俗易懂的AI章程,让员工和客户知道AI是怎么样去使用的,并在这样的一个问题上信任你。
HKB Tech创始人兼首席执行官库鲁德·阿尔马尼博士最近发布了负责任AI的八项关键原则。
A:沙盒方法是在安全环境中测试AI应用的有效方式。通过设定规则如不对外发布、限制预算等,让团队能快速尝试和测试AI功能,在确保安全的前提下加速创新,避免因过度审批流程导致的停滞。
A:企业要制定简单明确的规则,明确AI应用限制范围、数据使用权限和决策审查流程。同时建立责任制,让每个AI功能都有明确的负责人,通过测试迭代确保安全后再规模化部署。
A:负责任AI应该具备公平、透明和负责任的特征。这需要明确AI使用方式、数据来源和决策过程,实施人机回路决策机制,进行道德设计和严格的偏见测试,并发布易懂的AI使用章程建立信任。