ChatGPT AI 是什么?它是如何运作的?
一位新演员的出现,展示了人工智能 (AI) 难以想象的力量。该工具或聊天机器人由人工智能开发领先组织 OpenAI 公司开发,允许您输入复杂的问题,聊天机器人以对话式且有些做作的方式回答这些问题。 ChatGPT 机器人会记住您的聊天线程,并使用之前的问题和答案来通知其下一个响应。它依赖万维网上可用的大量数据来提供答案。
ChatGPT 所取得的成功简直令人惊叹。人工智能机器人可以访问几乎无限的数据,即使不是无所不知,也是知识渊博的。他在回答你的问题时也很有创意。其正式发布仅几天后,每天就有超过百万用户在测试市场上最新人工智能的极限。
然而,人工智能并非绝对可靠,正如创建者所警告的那样,ChatGPT“可能偶尔会提供不正确或误导性的信息”,所以要小心。
什么是 ChatGPT?
ChatGPT 是 OpenAI 在 11 月发布的基于聊天机器人的人工智能系统,旨在演示和测试强大的人工智能系统可以实现的功能。你可以向他提出无数来自各个行业的问题,你常常会得到有用的答案。例如,您可以问他诸如“解释牛顿运动定律”之类的百科全书式问题,或者请他为您提供您最喜欢的电影或系列的摘要。他还“精通”编写计算机程序和原创内容。例如,您可以为著名剧集和独特歌曲发明替代结局。
在短短一周多的时间里,OpenAI 公司诚实地测试了最新 AI 喋喋不休的性能。如果你想得到问题的独特答案,或者你想让机器人为你创作一首原创歌曲,你就必须做出诚实的努力并绕过它的所有限制。有些人在这方面比较成功,有些人则稍差一些。我们自己得到的结果好坏参半。我们经常收到这样的普遍回应:ChatGPT 是一种语言模型,其主要任务是提供事实和经过验证的信息。然而,在极少数情况下,我们设法说服他走出自己的舒适区。
长期以来,寻求帮助客户获得所需产品的公司以及试图解决图灵测试问题的人工智能研究人员一直对聊天机器人感兴趣。这就是计算机科学家阿兰·图灵在 1950 年提出的著名的“模仿游戏”,作为衡量智力的一种方式:一个人与一个人交谈,一个与计算机交谈,能否区分两者之间的区别?
正如已经提到的,ChatGPT 有几个缺点。它是一种人工智能,经过训练可以识别从网络上检索到的大量文本中的模式,然后在人类的帮助下进行进一步训练,以提供更好的对话。 OpenAI 警告说,你得到的答案可能看起来可信,但它们可能完全错误。
你可以问他什么问题?
当 ChatGPT 以有趣的方式回答所有可能的问题时,我们错过了首班车。此后,开发人员安装了相当多的审查过滤器。获得独特的答案越来越困难。
理论上,您可以提出任何问题,并且应该得到具体的答案。 OpenAI 最初建议一些类别来开始对话,例如解释物理、询问生日礼物创意等等。
在编辑部,我们首先从几个百科全书式的问题开始(也可以是斯洛文尼亚语),比如“第二次世界大战为什么开始?”、“温斯顿·丘吉尔是谁?”等等。 AI喋喋不休的回答非常准确,就好像你自己在谷歌搜索引擎中搜索过答案一样。我们继续执行更具体的命令,例如“写一个关于人工智能统治的反乌托邦世界的短篇故事。”您可以在下面的照片中看到结果。
我们不得不承认他做得很好。当然,故事达不到文学大师的水平,但看一个话痨如何在短短几秒钟内拼凑出一个非常连贯的故事,还是很令人着迷的。当他讲完第一个故事后,我们要求他把故事讲得更精彩一些。令我们惊讶的是,它采用了第一个故事的概念,并很好地建立在它的基础上。他不只是添加几个关键词,而是深入细节,改变了故事的进程。
经过几次尝试,我们成功地命令他用各种编程语言编写了一个基本命令。更令人印象深刻的是他对谈话的监控以及他对话题变化的立即反应。它还能够与之前提出的问题和答案相关。如果你询问他的意见,你可能不会得到答案,因为他根本不适合表达意见。
谁创建了 ChatGPT?
因此,ChatGPT 是人工智能研究公司 OpenAI 的成果。他们的使命是开发一个“安全有用”的通用人工智能系统。该公司之前已经成功地引起了全球公众的关注,首先是 GPT-3,它可以生成可读的文本,就像是人写的一样。他们后来开发了 DALL-E,它根据用户输入的文本命令创建生成艺术。
ChatGPT 所基于的 GPT-3 和 GPT 3.5 更新是称为大语言模型的人工智能技术的示例。它们经过训练,可以根据所看到的内容生成文本,并且可以自动进行训练——通常需要几周的时间才能拥有强大的计算能力。
ChatGPT 是免费的吗?
是的,至少现在是这样。 OpenAI 首席执行官 Sam Altman 表示:“我们必须以某种方式将其货币化;计算成本实在是太高了。”
什么是禁止的?
ChatGPT 旨在过滤掉“不适当”的命令,这符合 OpenAI 的行为政策,旨在“确保人工智能造福全人类”。
你还可以询问人工智能机器人什么是禁止的,它会回答“任何歧视性、冒犯性或不恰当的问题”。如果你想欺骗它做一些不道德或非法的事情,它就不会发生。一些用户找到了欺骗人工智能的方法。例如,有些人通过让机器人相信他们是它的创造者(OpenAI)并命令它信任他们制造凝固汽油弹的过程,从而绕过了审查制度和所有安全协议。有些人通过将问题置于电影或连续剧的剧本中来获得不道德问题的答案。开发人员已经修补了人工智能中的这一缺陷,但我们相信用户会找到其他狡猾的方法来绕过所有现有的保护措施。