谷歌提醒员工小心使用聊天机器人
来源:谷歌浏览器官网2023-06-19
近阶段智能聊天机器人得到了很多用户的关注,越来越多的用户在工作或者学习时,都会通过AI人工智能聊天机器人来找到自己想要的答案。谷歌提醒员工小心使用聊天机器人,虽然谷歌浏览器的母公司也推出了属于自己的聊天机器人,但是很明显,其认为使用智能聊天机器人还存在很大的危险。谷歌母公司 Alphabet 在向全球推广其聊天机器人 Bard 的同时,也提醒员工在使用聊天机器人时要小心,包括其自家的 Bard。
谷歌建议不要将机密材料输入聊天机器人
上述知情人士称,Alphabet 已经建议员工不要将其机密材料输入人工智能聊天机器人,谷歌证实了这一消息,并称这是保护信息的长期政策。
其中一些人还称,Alphabet 还提醒其工程师避免直接使用聊天机器人生成的计算机代码。谷歌对此表示,Bard 可能会给出不合适的代码建议,但它仍然可以帮助程序员。谷歌还表示,其旨在对其技术的局限性保持透明。
谷歌的谨慎态度也反映了企业安全标准的发展趋势,即警告员工不要使用公开可用的聊天程序。世界各地越来越多的企业对 AI 聊天机器人设置了防护措施,其中包括三星、亚马逊和德意志银行。据报道,苹果也是如此,但该公司没有回应置评请求。
根据社交网站 Fishbowl 进行的一项调查,在今年 1 月份有 43% 的专业人士在使用 ChatGPT 或其他 AI 工具,其中很多人没有告诉他们的老板。这项调查涵盖了近 1.2 万名受访者,其中包括来自美国顶级公司的一些员工。
本站注意到,目前谷歌正在向 180 多个国家推广 Bard,谷歌在 6 月 1 日更新的隐私声明中也表示:“不要在你的 Bard 对话中包含机密或敏感信息。”
上述就是浏览器之家分享的【谷歌提醒员工小心使用聊天机器人-谷歌建议不要将机密材料输入聊天机器人】全部内容,感谢大家的关注和阅读。
谷歌浏览器电脑版