HubWeek的讨论着眼于个人和行业的道德规范

HubWeek\'s discussion focused on personal and professional ethics.

技术与创造和使用技术的人一样好坏。

那是星期三在海港区举行的HubWeek活动上,有关数字世界道德问题的小组的棘手共识。由《哈佛商业评论》总编辑Adi Ignatius主持,该小组的成员包括计算机科学家,企业家Affectiva的创始人Rana el Kaliouby和James Bryant Conant大学教授Danielle Allen '01。

由哈佛大学,波士顿环球报,麻萨诸塞州综合医院和麻省理工学院赞助的伊格内修斯在活动中开启了讨论,并坦白地表示:他已在社交媒体上将自己孙女的照片分享给了一个分布广泛的朋友网络,尽管人们越来越担心身份盗用的风险,对此类图像的非法使用,未来的尴尬,其他隐私问题以及缺乏同意。他指出,由于对技术是“黑暗的”或恶意的如雨后春笋般冒出的感觉,他对此提出了严重的批评。

公司开发情感识别软件的El Kaliouby接管了Ignatius的案件,认为这种谴责过于简单。但是,她确实为自己的辩护增加了一个警告:Facebook等Internet社区几乎无处不在,并且在我们没有真正意识到其含义的情况下收集了许多数据。她说:“我认为我们并未真正考虑过数据隐私,同意问题以及有关此技术的意外使用的对话。”

艾德蒙·萨夫拉(Edmond J. Safra)伦理学中心主任艾伦(Allen)在这一点上做了扩大。她说,社交媒体使我们成为“公众人士”,类似于名人,他们在某种程度上放弃了隐私权,以换取曝光。(她补充说,她从不分享自己孩子的照片。)

当被问及平台及其下的程序起什么作用时,el Kaliouby继续说,技术本身是“总体上中立的”。她指出了算法的使用,例如公司开发的算法。例如,情绪检测软件可用于精神保健,但也可用于监视。“我们必须所有人都来讨论,并商定什么是合理使用,哪些不是合理使用。”

“每种技术都是针对问题的设计解决方案,经常寻求优化。关于问题的选择和最优化的选择是一个决定。它永远不会中立。”----—丹尼尔·艾伦(James Bryant Conant University)教授

 

艾伦(Allen)反对中立的观点,指出技术是人类选择的结果。她说:“每种技术都是为解决问题而设计的解决方案,经常寻求优化。” “选择问题和选择最优化方案是一个决定。它永远不会中立。首先确定优先级的时刻非常重要。”

卡利乌比表示同意,也许是这样,但通常,即使不是彻头彻尾的人道主义,也首先要把良性放在首位。以Affectiva为例,她的首要任务是帮助自闭症儿童识别面部表情,以缓解他们的社交互动。她说:“我们为此情感识别软件开发了一个软件开发套件,很快我们就知道,人们正在以各种不同的方式来应用它。” “我们必须回过头来修改我们的条款和条件,”强制要求仅在获得同意的情况下使用它(即,人们必须选择加入,而不是选择退出)。

艾伦说,一种危险在于人们如何倾向于信任技术而不是自己的直觉。她说,我们需要记住的是,我们的计算机同样存在缺陷,特别是因为人类不仅要负责创造这些技术,而且还要负责提供可能有偏见或选择不当的数据。她呼吁技术人员和公众“认识到到目前为止,机器甚至还没有接近篡夺他人的目的,这是人类的独特角色。”她强调了人类的责任。她说:“我们的首要责任是为我们的机器选择用途,”正如我们为法律和其他工具所做的一样。

最终,两个人达成了共识,围绕技术伦理的问题应被视为是持续的,是过程的一部分,而不是一次性的问题。“您必须有一个反复进行迭代风险评估的流程,”艾伦强调。

此外,埃尔卡利乌比(El Kaliouby)表示,道德培训和考虑必须纳入流程中。她说:“不能说自己只是技术专家而逃脱。” “我们如何处理这一问题必须包含设计要素,即我们如何设计和构建这些技术。

她说:“做令人惊奇的事情的潜力很大。” “我认为人工智能是我们更安全,更高产,更健康的合作伙伴关系。作为一个社会,我们只是必须致力于以这种方式使用它。”

相关阅读: