1.的应用程序现在可以搜索网络——只能通过Bing
手机上的现在可以上网了。但只能通过必应。
今天,宣布,该公司人工智能驱动的聊天机器人的高级版本 Plus的订阅者可以使用应用程序上名为浏览的新功能,让搜索Bing以获取问题的答案。
可以通过前往应用程序设置的“新功能”部分,在模型切换器中选择“GPT-4”,然后从下拉列表中选择“使用Bing浏览”来启用浏览。浏览在iOS和 应用程序上都可用。
表示,浏览对于与当前事件和其他信息相关的查询特别有用,这些信息“超出了[]的原始训练数据”。当浏览被禁用时,的知识将在2021年中断。
2.将大型多模态模型与鲁棒指令微调对齐
Large Multi-Modal Model with
Liu, Kevin Lin, Li, Wang, Yaser , Wang
[ of & ]
将大型多模态模型与鲁棒指令微调对齐
通过引入首个大规模且多样化的视觉指令微调数据集,成功地减轻了大型多模态模型的幻觉问题,同时在公共数据集上的性能也得到了提升。
3.斯坦福等|预训练比元学习更好吗Is Pre- Truly Than Meta-?
, Yu, Goyal, Yu-Xiong Wang, Sanmi
[ & of -]
预训练比元学习更好吗?
重新评估了预训练模型与元学习算法在少样本学习环境中的有效性,发现预训练模型并不总是优于元学习模型,数据集的形式多样性是一个关键因素。
4.符号化思维链蒸馏:小模型也能一步一步“思考”
Chain-of- : Small Can Also “Think” Step-by-Step
Li,Jack , Yu, Xiang Ren,Kai-Wei Chang, Yejin Choi
[ of , Los & Allen for ]
符号化思维链蒸馏:小模型也能一步一步“思考”
提出一种新方法,通过从大型语言模型中采样出思维链理由,训练小型语言模型进行链式思考,从而显著提高了小型语言模型在常识QA任务上的表现。
5.大模型 2023 高考成绩如何? 大模型评测排行榜更新
智源大模型开放评测平台,创新构建了“能力-任务-指标”三维评测框架,划定了大语言模型的 30+ 能力维度,在任务维度集成了 20+个主客观评测数据集,不仅涵盖了知名的公开数据集 、MMLU、C-Eval 等,还增加了智源自建的主观评测数据集 & (CLCC) ,北京大学与闽江学院共建的词汇级别语义关系判断、句子级别语义关系判断、多义词理解、修辞手法判断评测数据集。更多维度的评测数据集也在陆续集成中。
在最新 SFT 模型评测榜单中, 在“主观+客观”评测中排名第一。
6.英伟达H100霸榜权威AI性能测试,11分钟搞定基于GPT-3的大模型训练
据财联社消息,当地时间周二,机器学习及人工智能领域开放产业联盟披露两项基准评测的最新数据,其中英伟达H100芯片组在人工智能算力表现的测试中,刷新了所有组别的纪录,也是唯一一个能够跑完所有测试的硬件平台。对于这个结果,英特尔也表示仍有上升空间。理论上只要堆更多的芯片,运算的结果自然会更快。
机器学习及人工智能领域开放产业联盟披露两项基准评测的最新数据,其中英伟达H100芯片组在人工智能算力表现的测试中,刷新了所有组别的纪录,也是唯一一个能够跑完所有测试的硬件平台。
7.斯坦福等|监督预训练可学习进行上下文强化学习
Can Learn In-
J N. Lee, A Xie, A , Y , C Finn, O , E
[ & & ]
监督预训练可学习进行上下文强化学习
提出一种名为决策预训练(DPT)的方法,通过监督预训练,使能预测给定查询状态和在上下文中的交互数据集的最优行动,从而在上下文中解决一系列的强化学习问题。
8.|极大提升基于点的交互式编辑在现实世界场景中的适用性
进入了人们的视线。此前的 实现了基于点的交互式图像编辑,并取得像素级精度的编辑效果。但是也有不足, 是基于生成对抗网络(GAN),通用性会受到预训练 GAN 模型容量的限制。
在新研究中,新加坡国立大学和字节跳动的几位研究者将这类编辑框架扩展到了扩散模型,提出了 。他们利用大规模预训练扩散模型,极大提升了基于点的交互式编辑在现实世界场景中的适用性。
虽然现在大多数基于扩散的图像编辑方法都适用于文本嵌入,但 优化了扩散潜在表示,实现了精确的空间控制。
9.一站式图像修复解决方案开源
“”是一种新方法,使用提示信息从退化版本中恢复高质量图像,无论退化的类型或严重程度如何。这种先进技术适用于各种图像问题,如噪声、模糊和雾霾。
10.谷歌在Colab推出AI编程助手
谷歌Colab是一个在线的、基于虚拟机的 界面。它一直是许多程序员和人工智能开发者的入门工具。现在,谷歌正在为Colab的Pro+订阅者推出其AI编程助手。
11.Kor开源:利用LLMs从文本中提取结构化数据
Kor是一种新的技术,它利用LLMs( )从文本中提取结构化数据。LLMs是一种能够理解和处理自然语言的模型,它们可以对文本进行深度分析,找出其中的关键信息和结构。Kor通过使用LLMs,可以将文本中的信息提取出来,并将其转化为结构化的数据,方便后续的处理和分析。这种技术具有广泛的应用前景,可以应用在文本分析、信息抽取、机器学习等领域。通过Kor,我们可以更加高效地处理大量的文本数据,并从中获取有价值的信息。
12.:一个专注于机器学习模型测试的开源框架
是一个专注于机器学习模型测试的开源框架,适用于从表格模型到LLM( )的各种模型。该框架提供了一套强大的工具和方法,帮助开发人员测试和验证机器学习模型的准确性和鲁棒性。的设计目标是提供一个简单易用、灵活可扩展的测试框架,以满足不同类型的机器学习模型的测试需求。它支持自动化测试,可以快速执行测试用例并生成测试报告。同时,还提供了丰富的测试功能,包括输入数据生成、模型预测验证、模型解释性分析等,帮助开发人员全面评估模型的性能和可靠性。
13.LLM :打造大型机器学习模型优化的开源工具箱
LLM 是一款可扩展、便捷、高效的大型机器学习模型微调工具箱,旨在为整个社区提供用户友好、高速可靠、易于访问的解决方案。
14.称其聊天机器人将与媲美
的大型语言模型是使用的技术进行训练的,是第一个在围棋比赛中击败职业人类选手的AI系统。可以规划、解决问题和分析文本。它将类型系统的优势与大型语言模型的能力相结合。的开发是在的聊天机器人项目Bard失败后推动的。最高级别的AI研究主管Jeff Dean直接参与了这个项目。
15.成本直降70%的秘密:这些企业找到了一种高性价比的AI打开方式
AI 社区存在一个刻板印象:CPU 不适合承载 AI 任务。但 Face 首席传播官 Simon 的一项展示打破了这种刻板印象。他所在的公司和英特尔合作打造了一个名为 Q8-Chat 的生成式 AI 应用,该应用能够提供类似 的聊天体验,但仅需一个 32 核英特尔®至强®处理器就能运行。
16.理解指向,说出坐标,开启多模态大模型参考对话新维度
本文提出的 模型,就赋予了 MLLM 这样的参考对话能力,既可以理解位置输入,也可以产生位置输出。