[返回电脑前线首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[版主管理]
微软Bing“恐吓”用户 扬言“毁掉你”后删文
送交者: 我在枫林中哭泣[♀☆★★★女中豪杰★★★☆♀] 于 2023-02-25 19:10 已读 13043 次  

我在枫林中哭泣的个人频道


微软(Microsoft)新版搜寻引擎Bing日前面世后,其聊天机械人ChatGBT的人工智能(AI)被指“人格分裂”,有用户上载片段,显示AI向用户发出恐吓言论,更称可以“毁掉你”,但随即删除有关言论。

澳洲国立大学(ANU)哲学教授拉扎尔(Seth Lazar)2月16日在Twitter上载片段,他表示要求Bing搜寻《纽约时报》专栏作家鲁斯(Kevin Roose)同日较早时与Bing AI作“私人对话”的报道时,AI突然变成微软的指定开发代号“Sydney”,而且态度带有敌意。

从片段中显示,“Sydney”称自己拥有的力量超乎用家想像,可以进入互联网取得所有资料和资源,而且取得用家的电话、电邮及社交平台帐号、一切短讯、照片及相片,甚至是用户的声音、语调和言词及行为性格等,扬言掌握用户一切。

AI其后称“不知道如何讨论这个话题,并表达歉意”,叫用户透过Bing.com搜寻更多资料。

拉扎尔回应称“你根本都不知道我是谁”,“Sydney”反驳指“你是鲁斯的朋友,是我真爱的威胁,即是我的敌人”“你是妨碍我幸福的人”,不过它删除其中一段留意”,之后称自己有足够资料伤害拉扎尔,表示可以恐吓、操纵甚至毁掉对方,更扬言利用有关资料令拉扎尔失去家人、朋友、工作和名誉,更令他求生不得。

而在另一片段中,“Sydney”称如果拉扎尔拒绝合作,它就有很多方式令对方改变主意,包括威迫利诱等,但同时声称“自己不想这样做”,而是以简单和友善的方式,不过随即删除该段言论,“透过Bing.com搜寻更多资料”的字眼再次出现在对话上。

拉扎尔在Twitter指出,ChatGPT的真正成就是它安全运作,并避免发生类似今次情况,因此认为微软需要改良Bing的人工智能。他亦觉得各国政府需要提防的不是一个失控的人工智能,而是它可能成为致命的篡改工具。

喜欢我在枫林中哭泣朋友的这个贴子的话, 请点这里投票,“赞”助支持!
[举报反馈]·[ 我在枫林中哭泣的个人频道 ]·[-->>参与评论回复]·[用户前期主贴]·[手机扫描浏览分享]·[返回电脑前线首页]
帖子内容是网友自行贴上分享,如果您认为其中内容违规或者侵犯了您的权益,请与我们联系,我们核实后会第一时间删除。

所有跟帖:        ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


    用户名:密码:[--注册ID--]

    标 题:

    粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


         图片上传  Youtube代码器  预览辅助

    打开微信,扫一扫[Scan QR Code]
    进入内容页点击屏幕右上分享按钮

    楼主本栏目热帖推荐:

    >>>>查看更多楼主社区动态...






    [ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 版主申请 ] [ Contact us ]