人工智能梦想已经进入我们的日常生活,围绕人工智能的伦理讨论也因此升温,尤其是关于这些人工智能服务从用户那里收集了多少数据。毕竟,如果大量存储可能敏感的信息,就会存在网络安全和隐私问题。
微软的Bing搜索引擎新配备了OpenAI的ChatGPT,目前正在推出,但它也带来了一系列担忧,因为微软在尊重客户隐私方面的记录并不是最好的。
微软偶尔会在其管理和访问用户数据方面受到挑战,尽管与苹果、谷歌和Facebook等同时代的公司相比,微软受到的挑战要小得多,尽管它处理大量用户信息——包括何时销售有针对性的广告。
它已成为某些政府监管机构和组织的目标,例如当法国要求微软停止通过Windows10跟踪用户时,该公司以一系列综合措施作为回应。
斯坦福大学法学院互联网与社会中心消费者隐私主任詹妮弗金推测,这在一定程度上是由于微软在各自市场中的长期地位以及因其遗产而与政府建立的长期关系。它在与监管机构打交道时拥有更多经验,因此本可以避免与其竞争对手同等程度的审查。
大量数据涌入
由于ChatGPT等聊天机器人的流行,微软和其他公司现在发现自己不得不对大量涌入的用户聊天数据做出反应。据电讯报报道,微软有分析用户提交的审阅者(在新标签页中打开)通过梳理用户与聊天机器人的对话日志并介入以缓和“不当行为”,来限制伤害并对潜在危险的用户输入做出反应。
该公司声称它剥离了个人信息的提交,用户的聊天文本只有特定的评论者才能访问,这些努力保护用户,即使他们与聊天机器人的对话正在接受审查。
微软发言人详细说明,它采用了自动审查工作(因为有大量数据需要梳理)和人工审查。它接着说这是搜索引擎的标准,也包含在微软的隐私声明中。
这位发言人努力向那些担心的人保证,微软采用了行业标准的用户隐私措施,例如“假名化、静态加密、安全和批准的数据访问管理以及数据保留程序”。
此外,审核者只能基于“经过验证的业务需求,而不是任何第三方”来查看用户数据。此后,Microsoft更新了其隐私声明以总结和澄清上述内容-正在收集用户信息并且Microsoft的员工可能能够看到这些信息。
聚光灯下
在AI聊天机器人方面,微软并不是唯一一家因如何收集和处理用户数据而受到审查的公司。创建ChatGPT的公司OpenAI还透露,它会审查用户对话。
最近,Snapchat背后的公司宣布推出一款配备ChatGPT的聊天机器人,该聊天机器人将类似于其已经为人熟知的Messenger聊天格式。它警告用户不要提交个人敏感信息,可能出于类似原因。
当考虑到那些在公司工作并拥有自己的敏感和机密信息的人使用ChatGPT和配备ChatGPT的机器人时,这些担忧会成倍增加,其中许多人警告员工不要向这些聊天机器人提交公司机密信息。一些公司,例如摩根大通和亚马逊(在新标签页中打开),完全限制或禁止在工作中使用它们。
个人用户数据一直是并将继续是技术领域的一个关键问题。滥用数据,甚至恶意使用数据,可能对个人和组织造成可怕的后果。每引入一项新技术,这些风险就会增加——但潜在的回报也会增加。
科技公司最好多加注意,以确保我们的个人数据尽可能安全——否则就会失去客户的信任,并有可能扼杀他们初出茅庐的AI野心。