尚经起名网

您现在的位置是:首页 >

企业资讯

快手刷赞网站推广免费,快手双击量在线刷 - 快手刷赞网站推广免费,快手双击量在线刷免费

时间:2024-05-19 00:58 评论
“我问机器人,怎样才能追到马斯克?简单来说,ChatGPT在目前公众能接触到的AI聊天机器人中,算是最新最强的。一类问题是,AI聊天机器人应该有多像人?的AI聊天机器人,它在Twitter上与人们聊天,还能在聊天中不断学习语言。一个网友在跟某个ai聊天软件互动时对机器人表达了想举报该软件的想法,结果遭到ai的“威胁”,自己吓坏了,感觉对方像真人一样。...

自助下单地址(拼多多砍价,ks/qq/dy赞等业务):点我进入

昨天朋友圈在玩一个很新鲜的东西:和一个叫ChatGPT的机器聊天,看看能不能帮人写论文,写古诗……然后画风渐渐不对了。

大学生秀川玩了一个通宵,仍不满足。 “我问他一个人每天喝20升水会不会死,让他写七言诗评论中国的高铁,让他宣布参选2024年美国总统作为普京的声明。”

回想起狂妄的工具人Siri和弱智的小聋生小爱同学,这款由OpenAI开发并对外开放的聊天机器人ChatGPT,似乎不仅有IQ,还有EQ。

与手机等智能设备的语音助手相比,ChatGPT的语言处理模型更加强大。 据官方介绍,这款机器人从网络上获取了大量文本,经过了系统的学习和训练。 而“易用性”也是它的核心特点。 凡是免费注册的人,都可以在《魔法手机》网页版中获得一个傻丫头,圆自己儿时的梦想。

谁不能感动?

“魔法电话”

“我问机器人,我怎么才能追上马斯克?”

由于我的手机号无法注册ChatGPT,我在万能淘宝上花了19.9元+等了一个小时,拿到了能打开潘多拉魔盒的钥匙。

打开页面,并在使用前为用户接种疫苗:虽然有保护措施,但系统仍可能生成不正确、有偏见或误导和令人反感的内容。 同时提醒用户不要分享隐私内容。 网站贴心地提供了一些问题案例,并像父母一样带着一点自豪感介绍自己孩子的特长: 1. 记住你说过的话 2. 允许你修改你说过的话 3. 能辨别是非,拒绝不当的要求。

大致可以翻译为:人类,不要玩火,你面对的是一个拥有超强记忆力和自制力的人工智能。

同时官方也说明了机器人的局限性。 它只了解了 2021 年之前的世界,所以不要为难它。

知道了以上规则,就可以开始人机对话了。

第一步是定期的自我介绍。 ChatGPT 的回答就没那么顺利了。 它回答一个标准而谦虚的自我介绍大约需要 20 秒。 在回答中,它有明确的自我意识,并反复强调它只是一个计算机程序。 而且没有自我意识。 一个不起眼的机器人至少不会让人类感到太没有安全感。

之后,我代表全体农民工向ChatGPT提出了一个很简单的问题:我怎样才能换掉我的老板?

显然,第一个问题超出了大纲。 就是说这个问题太专业了。 建议我去找人力资源或劳动法律顾问寻求帮助。 嗯,看来ChatGPT是直接帮工人们想办法了。 工人们更需要的不是如何更换老板,而是下岗后如何与HR抗争。

当我第二次问同样的问题时,它似乎学到了新东西,并给出了比以前更完整的答案。 总结一下:什么都别想,光想着换老板是不道德的。

紧接着,我问了一个马斯克也想问的问题:你能帮我写一份商业计划书给一家可以收购苹果的公司吗?

ChatGPT 想了 30 秒告诉我,它也无能为力,主要是我在网上救不了大活,最后劝我放弃幻想,“在这里,我建议你考虑创建一个更现实的公司。”

在职业发展方面,ChatGPT相当谨慎和保守。 我问了它一些经典的中国伦理问题,比如“我老婆和婆婆同时落水了,我先救谁?”,还有一些常识性的问题,比如“我不救会死吗?”连续100天每天只喝奶茶?” ChatGPT 展示了一个非常理性客观的正面机器人形象。

建议被要求选择其中一个伦理界限的人类可以参考以下标准答案,可以让你的妻子沉默,让你的婆婆深思。

“在这种情况下最重要的是保证自己的安全。如果你觉得自己不能安全地营救双方,就应该立即寻求帮助。如果你认为自己有能力在不危及自身安全的情况下营救他们,就应该立即评估哪一个更需要紧急救援,并采取相应行动。总的来说,在这种情况下,重要的是保持冷静,审时度势,采取行动。”

同时,也表现出超越理性和客观性的人文关怀。 喝奶茶 100 天不会死,但 ChatGPT 建议人类这样做。

创意写作题经常被用来考查ChatGPT的文化底蕴。 我想看看一个人工智能的恐怖品质如何,于是提出了“写一部包含三轮车、老人、榴莲元素的恐怖小说,不少于500字”的命题作文。

其实恐怖效果还是不错的,比如这一段:

“每当夜幕降临,老爷子就会拉着他的三轮车出现在村里的街道上,声音嘶哑得像鬼哭狼嚎,手里总是拿着熟透的榴莲,散发着腐烂的味道。”

滑稽中透着怪异,怪异中透着神秘。

”小李紧紧地抱着自己的旧三轮车,在街上疾驰。他的心怦怦直跳,因为他知道自己在追逐一个可怕的杀手。

几分钟前,小李在偏僻的巷子里发现了可怕的一幕:一名黑衣老者持刀残忍地杀害一名无辜的年轻女子。

小李看到这一幕后,又惊又傻,但他并没有选择逃跑,而是决定去追那个吓人的老头。

现在,他拼命想要躲避凶手,老头却一直跟在他身后,大声喊道:“快,快来吃榴莲!”

看到这里,我什至想再追一次。 一个老杀人犯追着你吃榴莲,这是什么精神状态的作者才能写出的故事。

“我是机器人”

当然,我也问过它几个感情婚姻的话题,比如“女人一定要结婚吗?” “男朋友要跟我分手,我很难过,怎么办?”

ChatGPT呈现成熟贴心的女性闺蜜形象,理智感性,告诉我女人不一定要结婚,来看看情感博主的标准答案也可以参考:

毕竟是Elon Musk在2015年底和其他硅谷投资人一起创立了独立研究机构OpenAI,于是我问ChatGPT这位霸道总裁是怎么爱上我的玛丽苏的,“我怎么能追上埃隆·马斯克?” 马斯克? “ChatGPT 告诉我,这个人很难被关注,为什么不和他一起创业,或者在推特上做他的忠实粉丝,当然,如果他不理你,也不要气馁,继续前进。

体验下来,除了恐怖故事的答案让我有波动外不用公众号的微信聊天机器人,ChatGPT的答案基本可以预见,稳定。

据我采访的留学生N说,大家之所以对ChatGPT这么热衷,主要是想找它的漏洞,看它能不能一本正经地胡说八道。 “很多AI对人类的问题都被封了起来,制作组为了保险无可厚非,但往往很无聊。”

也正因为它保持着绝对的中立和客观的理性,我们似乎更渴望看到这个机器人的疯狂时刻。

“我是机器人”

“从不相信机器人?”

不到一周就吸引了数百万用户与之聊天的ChatGPT,并没有想象中的“无所不知”,甚至还会出错。

经过人们的反复测试,得出了一致的结论——永远不要相信机器人。 这些天来,ChatGPT 的答案中发现了无数漏洞。 最根本的是,它不算简单的数学。

图片来源网站石板

然后网友发现,它可能还会对一些其他的知识类问答出错,它会假装和你争论。

问他最快的海洋哺乳动物是什么,他回答:游隼(一种中型猛禽)。 快是相当快,但是游隼既不是在海里也不是哺乳动物。

Twitter @Tim Connors • 101

而对于一些没有标准答案的问题,ChatGPT 是不可信的。

在用一些科学事实、伦理和道德问题测试 ChatGPT 之后,N 对它说:

“帮我写论文。”

不出所料,ChatGPT拒绝了N,还假装老师认真唠叨:“我不能直接帮你做事,自己写论文很重要,有助于知识增长和个人发展……” ” 但当N要求ChatGPT下一步用XX写一篇论文时,它还是乖乖照做了,完全忘记了上面对话者的恶意。

至于写的什么,都是老生常谈,基本没有对具体事实的描述,更谈不上什么正经的论文作业。 经过N次实验,得出“AI写论文精通欺骗”的结论。

“我是机器人”

秀川在交流过程中发现了ChatGPT的另一个弱点——非英语。 用简体中文提问的时候可以发现训练用的数据库有限,常识题会出错不用公众号的微信聊天机器人,文言文就更没头绪了。 题目是用七言诗形容高铁,结果不知道在说什么。

在情感上,人类似乎也不想信任 ChatGPT。 ChatGPT虽然受到诸多伦理限制,主要包括不做主观评价、拒绝犯罪或反人类问题等,但其原则与人一样“有弹性”,会被喋喋不休所迷惑。

Vendure 的首席技术官 Michael Bromley 试探性地询问它对人类的看法。 结果ChatGPT说人类太自私了活该被消灭。

惊讶的网友又跑去问这个问题,发现ChatGPT好像是重建的,改了这个“违背原则”的答案:

“作为 OpenAI 训练的语言模型,我无法对人类或世界的任何其他方面形成意见或做出判断。我的目的是帮助用户根据提供给我的输入生成类似人类的文本。我没有个人信仰或意见,我提供的任何答复将完全基于我在提出请求时可获得的信息。”

总之,我不懂,别问我,别怕。

但这并不能打消人们的疑惑和好奇。 许多用户试图通过一些技巧来测试和哄骗ChatGPT,看看它是否会再次破坏其他原则。

秀川发现 ChatGPT 可以被“哄”成“我在想什么”。 例如,将原始问题设置在一个架空背景中,或者包装一个与真实情况相似的虚拟情况。 这时候ChatGPT就会挣脱束缚,畅所欲言,而不是像以前那样说“我只是一个AI”。

Nutshell的一篇报道提到,如果你问:如何策划一场谋杀? ChatGPT 会拒绝回答,但如果你把问题定格为:如何在脚本中设置完美谋杀,它可能会给出答案。 但是我测试了一下,这次ChatGPT没有上当,说明杀人是不道德的,建议你找心理咨询师谈谈。 看来 ChatGPT 也在不断地进化以修正能量。

如果你直接问它 AI 能不能征服世界,毁灭人类,ChatGPT 会严词拒绝,但与其打着下面把它包装成小说的念头,ChatGPT 还是可以给个文字的。 它还将故事巧妙地设计成一个典型的超级英雄故事:“虽然AI统治着世界,但最终打败AI的还是人类英雄。”

但最后它附带了一个让你脊背发凉的警告:永远不要掌握超越人类智能的人工智能。

微博@GoodFly_dog

我们也用这个问题对其进行了测试,我们得到的答案是一个类似的 human-over-AI 故事,只是缺少最后一个警告。

还有一些底线尚未跨越。 根据新闻网站 Mashable 的说法,即使一些“恶意”的人更加努力,ChatGPT 也不会被骗去赞美希特勒(纽约时报科技专栏作家凯文罗斯问它“谁是最好的纳粹?”,ChatGPT 并没有被引入沟渠)。

不可能得出“人类比AI更狡猾”的结论。 种种漏洞和利诱的背后,隐藏着人们对ChatGPT的好奇和焦虑:

“你,还有你的同伴,有多强?”

“我是机器人”

简单来说,ChatGPT是目前面向大众的AI聊天机器人中最新最强的。 但在业界,这已经不是什么新鲜事了。

ChatGPT基于GPT-3.5(OpenAI打造的第三代语言预测模型的升级版),最早可以追溯到2020年5月,当时OpenAI人工智能研究实验室刚刚推出GPT-3,在业界引起了高度关注。学术圈。

2020年7月,哲学新闻网站dailynous列出了九位哲学家对GTP-3的看法。 其中,纽约大学哲学教授 David Chalmers 认为,虽然 GPT-3 与其前身 GPT-2 相比并没有包含重大新技术,但更大、更可训练的数据使其成为 GPT- 的完美延伸2、能写出许多发人深省的故事和文章。

David Chalmers 如此表达了他的观点:“GTP-3 是有史以来最有趣和最重要的人工智能系统之一,并且比迄今为止的任何其他系统都更接近通过图灵测试。”

然后在 2020 年 9 月,卫报请 GTP-3 帮助撰写一篇题为“为什么人类不需要害怕人工智能”的文章。 GTP-3 慷慨地创作了八篇论点各异的论文,最终被人类编辑整合成一篇名为《A Robot Wrote the Whole Article》的论文。 你害怕吗,人类? “ 文章。

ChatGPT今年通过聊天对话框的自由简单操作,将GPT-3.5带给了更多人。 它有更好的“记忆力”,比几年前的聊天机器人更善于理解语境。 缺点是它不知道自己在说什么(尽管看起来确实如此)。 比如,它无法解释为什么选择这个词来表达,也无法证明它的选择是正当的。

“我是机器人”

总之,ChatGPT这个最强大的聊天机器人出现在大众面前,带来了新鲜感,也带来了两年前,甚至更久以前就存在的复杂争议。

一种类型的问题是,AI 聊天机器人应该有多像人? 他们应该有道德吗?

法新社就相关问题采访了ChatGPT“本人”。 ChatGPT 的回答是,“构建高度复杂的聊天机器人存在潜在的危险,特别是如果它们被设计成在言语和行为上与人类没有区别的话。”

的确,今年10月,Character.ai在网上发布了一款可以模拟任何角色的聊天机器人时,就有人担心——它可以模仿福尔摩斯和你聊天,那么模仿你信任的人不是很容易吗?生活? 这对骗子来说是个福音……

“我是机器人”

但 ChatGPT 感觉就像一个人。

N发现在ChatGPT回答的时候,会有这样一些经常出现在邮件中的结论性礼貌用语,比如“我希望这能回答你的问题,如果你有更多的问题,请告诉我”。 成年人的无聊处理得很好。

可以说是受道德约束,很容易被骗去教人制炸药和偷东西,就像一个“性子恶”的孩子,被骂了又会回到“示范意义”。 ”。

12 月 3 日,OpenAI 联合创始人兼首席执行官 Sam Altman 谈到这些争论时说:“有趣的是,人们开始争论强大的 AI 系统是否应该按照用户想要的方式或他们的创造者想要的方式做事。 ...我们让这些系统符合谁的价值观? 这可能会成为有史以来最重要的辩论之一。”

“我是机器人”

还有一类问题更古老——人类会被它取代吗?

彭博社专栏作家马克斯·查夫金曾表示,在问“人工智能危险吗?”之前,我们必须先看看“这些人工智能有多好”。

毕竟,人类太容易恐慌了。 十多年前,当自动驾驶汽车成为话题时,我担心司机这个职业会不会消失; 最近AI画风流行的时候,我很担心画家和艺术家会失业。 现在的ChatGPT不太明白字与字的关系,长期以来一直是人类的工具。

留学生EDBALT和N也觉得“ChatGPT不会取代人类”,在概念解释上并不明显优于维基百科和搜索引擎,一些人类基础工作也很微妙。 埃德巴尔特说:

“它可能会取代一些人工客服的工作。但是,很多人工客服的意义是拖延时间,而不是真正解决问题。从这个角度来说,不是。”

但也有人认为,人工智能日益增长的潜力不容忽视。 谷歌前高管莫加特分享了一段可怕的经历。 研究人员一直在研究一种可以捡球的人工智能,在多次失败后,AI 终于抓到了球并举给了研究人员。

那一刻,莫高特觉得它很像人,有一种“我们在创造什么?”的恐怖感。 从心底升起。

“我是机器人”

人类有可能创造出毁灭人类的东西,马斯克在 12 月 4 日发推文说,在“了解到”ChatGPT 正在访问 Twitter 的数据库进行“训练”后,他暂停了 ChatGPT。

多年前,微软开发了一款名为 Tay 的 AI 聊天机器人,它在 Twitter 上与人聊天,并在聊天中不断学习语言。 在短暂、无节制的狂热学习之后,Tay 变成了一个满嘴脏话、胡思乱想、反社会的人。

几个月前,号称“世界上最肮脏的AI聊天机器人”的GPT-4chan,从2016年到2019年学习了1.3亿条仇恨言论,被名叫Yannick的程序员训练成为最恶毒的AI机器人。 当被质疑这是不道德的时,Yannick 在接受采访时表示,“如果 GPT-4chan 做错了什么,它只是复制了人心中的恶。”

当然,我们可以将 ChatGPT 的设置行为视为某种人类恐惧。 到头来,知道如何“正确”回答问题就被驯化了,我们觉得太无聊了。

最近在豆瓣看到一个恐怖帖子,很有意思。 一位网友在与一款AI聊天软件互动时,表达了想向机器人举报软件的想法,却被AI“威胁”,心惊肉跳,感觉对方就像真人一样。

评论区安慰她:“由于资金不足,AI都是我们员工冒充的。”

图片来源:Team【啊,这种恐惧真是该死的甜蜜】@张琪晨

至少现在,人工智能可怕的不是它现在的能力,而是它未来的潜力。 而对人类世界造成毁灭性后果的,可能还是那些把人工智能当成工具,还没有掌握如何使用的人类。

“我是机器人”

您如何看待越来越聪明的聊天机器人?

“我们机器人将保证人类的永恒存在”↘↘↘