IEEE:生成式人工智能的下一步是什么?
发表于 2024-11-12 11:57:56

近年来,随着 ChatGPT 等多个聊天机器人进入公共领域,生成式人工智能风靡全球。聊天机器人以近乎神奇的速度生成类似人类的文本 - 以莎士比亚的风格写十四行诗,在多种语言之间翻译文本,编写计算机代码等等。

企业和商业专家立即看到了潜在的好处。但最近几个月,人们对生成式人工智能的质疑日益增多。批评者表示,生成式人工智能的能力被夸大了。幻觉,也就是生成式人工智能模型可能产生的虚假陈述,降低了它的实用性,许多企业尚未找到使用这些工具的理想策略。尽管 ChatGPT 是有史以来增长最快的应用程序之一,但经常使用它的人比例仍然相当低。

在IEEE最新发布的“ 2025 年及以后技术的影响:IEEE 全球研究”中,91% 的受访者同意“到 2025 年,随着公众的兴趣和看法转变为对这项技术可以和应该做什么的更深入的理解和期望,将出现生成性人工智能清算,比如在结果的准确性、深度伪造的透明度等方面。”

但调查结果并不认为生成式人工智能会遭遇持久的阻碍。绝大多数人 (91%) 也同意“到 2025 年,生成式人工智能的创新、探索和采用将继续以闪电般的速度发展。”

那么,2025 年生成式人工智能将迎来什么?产品路线图是什么?它们将对我们的工作和生活方式产生什么影响?

更多多模式功能

IEEE 高级会员林道庄预计,未来几年,生成式 AI 模型将使从短文本片段生成图像和视频变得更加容易。文本转图像、文本转视频和语音合成将得到改进,模型将在各种输入之间实现更好的上下文理解。

“第一步是多模式的深度融合,为消费者甚至专业内容创作者创造更复杂、更详细、更准确、更自洽的内容。”林道庄表示。

消除准确性和偏差

对幻觉、准确性和偏见的担忧也减缓了生成式人工智能模型的采用。当模型在有偏见的数据上进行训练时,偏见可能会悄然出现。一些图像生成模型可能会表现出对某一种族的人的偏好。

林道庄还表示,“模型开发者需要关注如何消除人工智能在消费者数据训练过程中产生的偏见和道德问题,引导用户走向更普遍、更持久的价值观,引导模型变得更加‘善良’,这很重要。”

改进的上下文窗口

模型面临的一个限制是它们在提示中一次可以处理的信息量。这称为上下文窗口或上下文大小。例如,想象一下,您需要输入一个非常长的提示(或描述)来尝试生成图像。在某些时候,生成式 AI 模型将无法处理整个提示。输出将仅反映提示的一部分,从而忽略潜在的重要信息。

在另一个场景中,你可能需要与模型讨论一个较长的文档。随着对话的进行,模型可能会忘记对话的早期部分。

改进上下文窗口将允许生成式人工智能模型处理更复杂的任务,并提高其响应的连贯性。

IEEE 研究生成员Hector Azpurua表示:“生成式人工智能所能做的事情尚未达到极限;我们还没有达到这项技术的顶峰。”

「免责声明」:以上页面展示信息由第三方发布,目的在于传播更多信息,与本网站立场无关。我们不保证该信息(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关信息并未经过本网站证实,不对您构成任何投资建议,据此操作,风险自担,以上网页呈现的图片均为自发上传,如发生图片侵权行为与我们无关,如有请直接微信联系g1002718958。

CSDN官方微信
扫描二维码,向CSDN吐槽
微信号:CSDNnews
微博关注
【免责声明:CSDN本栏目发布信息,目的在于传播更多信息,丰富网络文化,稿件仅代表作者个人观点,与CSDN无关。其原创性以及文中陈述文字和文字内容未经本网证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网不做任何保证或者承诺,请读者仅作参考,并请自行核实相关内容。您若对该稿件有任何怀疑或质疑,请立即与CSDN联系,我们将迅速给您回应并做处理。】