您是否曾经遇到过知道您点的咖啡的咖啡师?无需详细说明各个方面(温度、冲泡时间、水量、咖啡豆产地、研磨尺寸、烘焙程度等)即可获得咖啡,这真是太棒了。这说明了我们今天正在利用人工智能进行导航的范围。
这篇文章不是关于咖啡的,而是关于咖啡的。它涉及用户交互如何变化和适应,生成式人工智能用户交互如何根据 GUI 的先前趋势以及生成式人工智能交互中出现的新趋势而发展。我们将把上下文捆绑、用户管理、信任和生态系统的价值视为人工智能用户体验的关键趋势。
从命令到对话
让我们回顾一下计算的初期,当时使用计算机意味着在命令行界面 (CLI)中输入精确的命令。想象一下记住打开文件或复制数据的确切命令的挑战,更不用说找到“作业”文件夹了。并不是每个人都适合成为程序员。为了更广泛的可用性,有必要进行转变。
ELIZA于 1964 年问世,这是自然语言处理的早期尝试,通过关键字识别和脚本化响应让用户参与基本对话。尽管具有开创性,但 ELIZA 的交互远非灵活或可扩展。
大约在同一时间,Xerox PARC 正在开发图形用户界面 (GUI) ,后来由Apple 于 1984 年和Microsoft推向大众。GUI 改变了计算方式,用可通过鼠标导航的图标、菜单和窗口取代了复杂的命令。这项创新使计算机可以直观地执行日常任务,为技术在我们生活中的普遍作用奠定了基础。
不同接口的示例。ChatGPT 的主要交互是基于文本的,它会如何演变?
看上面的示例图片。今天我们正在见证一场平行的演变。用户提示基本上是用自然语言编写的小程序,结果的质量取决于我们的提示工程技能。正如早期计算从 CLI 的复杂性过渡到 GUI 的简单性,使每个人都可以使用技术一样,我们看到生成式 AI 正在出现类似的趋势,即将复杂的输入捆绑到更简单、更用户友好的复杂界面中。在后台。
Stable Diffusion WebUI、Midjourney 和 DALL·E 3 的 UI 和潜在提示显示了以图形方式表示复杂图像扩散后端的截然不同的方法。
图像生成器(如上所示),例如Stable Diffusion WebUI、Mid Journey和DALL·E 3,在提示中要求不同程度的精度才能获得结果。虽然 Mid Journey 和 DALL·E 更易于使用,但 Stable Diffusion 允许更具体的输出。然而,我们对用户了解得越多,我们就越容易提供简单的体验,同时保持他们所需的特异性。
上下文捆绑
上下文捆绑通过将相关信息组合成单个命令来简化交互,解决传达复杂指令以实现期望结果的挑战。这样可以一次性调整用户意图和机器理解,从而提高效率和输出质量,从而无需手动编写用户提示。