- 一款有 AI 界面的浏览器内 Postgres 数据库
今天给大家介绍一个革命性的工具 - postgres.new。它让你在浏览器里就能运行 Postgres 数据库,还配备了 AI 助手! postgres.new 是什么? - 浏览器中的 Postgres 数据库沙盒 - 内置 AI 助手 - 完全本地运行,无需服务器 - 可以无限创建数据库实例 来看看它能做什么: - CSV 文件拖拽导入,自动生成表格 - AI 辅助生成报告和图表 - 自动创建数据库图表 - vector 搜索支持,为 AI 应用打下基础 - 所有操作都通过自然语言与 AI 交互完成 它是如何实现的? - 基于 PGlite,一个 Web Assembly 版的 Postgres - 将 GPT-4 与数据库无缝集成 - 使用 Transformers.js 实现浏览器端的文本嵌入 谁会需要它? - 数据分析师:快速导入 CSV 并进行查询分析 - 开发者:SQL 语句验证和数据库设计 - AI 工程师:语义搜索和 RAG 系统原型开发 - 学生:学习 SQL 和数据库知识的理想沙盒 即将推出的功能: - 数据库部署到 S3 - 更多文件格式支持 - 数据库分享功能 postgres.new 正在重新定义我们与数据库交互的方式。想体验未来吗?现在就去试试吧! 大家觉得这个工具怎么样?欢迎在评论区分享你的看法!
- Zed 公司宣布推出了 Zed AI 的新服务
各位好,今天给大家带来一则关于 Zed AI 的重要新闻。 Zed 公司最近宣布推出了一项名为 Zed AI 的新服务。这是一个由 Anthropic 公司的 Claude 3.5 Sonnet 提供支持的 AI 辅助编码工具。Zed AI 通过简单的登录即可使用,为用户提供便捷高效的 AI 编码支持。 Zed AI 的核心功能包括两个部分:助手面板和内联转换。 助手面板是一个全功能的文本编辑器,用户可以在其中与 AI 模型进行交互。通过一系列斜杠命令,如/tab、/file、/terminal 等,用户可以轻松地将各种上下文信息添加到 AI 请求中。 内联转换功能允许用户通过自然语言提示来转换和生成代码。这个功能使用了自定义的流式差异协议,能够实时显示模型的输出,为用户提供流畅的交互式编码体验。 Zed AI 的一个重要特点是其透明度和可控性。用户可以看到并控制每一个输入,从而精细调整模型的行为。此外,Zed AI 还支持可扩展的斜杠命令,用户可以创建自定义命令来适应自己的工作流程。 Zed 公司正在开发更多功能来增强 Zed AI 的能力。其中包括用于复杂转换的工作流程和更高效的上下文构建工具。/workflow 命令允许用户在助手面板中编排直接影响代码库的更改,而/project 和/auto 命令则旨在简化上下文构建过程。 Zed AI 目前在初始发布期间免费提供。Zed 公司邀请开发者试用 Zed AI,并通过实验和反馈来共同塑造 AI 辅助开发的未来。 这就是今天关于 Zed AI 的全部新闻。感谢您的收看,再见。
- Anthropic 推出提示词缓存功能
Anthropic 公司为其 API 推出的提示词缓存功能。 什么是提示词缓存? 提示词缓存允许开发者在 API 调用之间缓存经常使用的上下文。这意味着你可以为 Claude 提供更多的背景知识和示例输出,同时大幅降低成本和延迟。 主要优势 1. 成本降低:对于长提示词,成本最高可降低 90%。 2. 延迟减少:对于长提示词,延迟最高可降低 85%。 适用场景 提示词缓存在以下情况下特别有效: 1. 对话代理:特别是对于有长指令或上传文档的长对话。 2. 编码助手:通过在提示中保留代码库的摘要版本,改善自动完成和代码库问答。 3. 大文档处理:在不增加响应延迟的情况下,在提示中包含完整的长篇材料,包括图像。 4. 详细指令集:共享广泛的指令、程序和示例列表,以微调 Claude 的响应。 5. 代理搜索和工具使用:增强涉及多轮工具调用和迭代变化的场景的性能。 6. 与书籍、论文、文档等长篇内容互动:将整个文档嵌入到提示中,让用户提问。
- Grok-2 横空出世:xAI 的新作能否搅动 AI 巨头格局?
今天,我们要聊一聊 AI 领域的一个新面孔—— Grok-2。这个模型刚刚发布,就引起了不小的轰动。但它到底有什么特别之处?是否真的能改变AI的格局?让我们一起来探讨一下。
- WizardLM-2 隆重登场!
WizardLM-2 是新一代开源大型语言模型,在复杂聊天、多语言、推理和代理等任务上都有着出色表现。它由三个模型组成:WizardLM-2 8x22B、WizardLM-2 70B 和 WizardLM-2 7B。其中,8x22B 是最强大的版本,在内部评估中超越了众多开源模型,甚至在复杂任务上可以与 GPT-4-Turbo 和 Glaude-3 等顶尖闭源模型比肩。70B 版本则在推理能力上独占鳌头,7B 版本则以速度取胜,在性能上可以媲美十倍于它的开源模型。 那么,WizardLM-2 到底有什么特别之处呢?赶快收听本期播客吧! https://huggingface.co/posts/WizardLM/329547800484476
- Command R+:为企业打造的大型语言模型
今天我们来聊聊 Cohere 公司最近发布的一款大型语言模型 Command R+。Command R+ 是一款专为企业应用场景设计的 LLM,它具有以下几个特点: - **先进的检索增强生成 (RAG)**:Command R+ 采用了 RAG 技术,可以提高生成文本的准确性和可靠性。 - **多语言支持**:Command R+ 支持 10 种主要语言,可以满足全球企业的需求。 - **工具使用**:Command R+ 可以调用外部工具,完成更复杂的任务。 https://txt.cohere.com/command-r-plus-microsoft-azure/
- 用 Suno AI 生成了一首歌
我的第一款 Chrome 浏览器 AI 插件 MangoFlow 发布了,有兴趣有条件的可以去试试: https://chromewebstore.google.com/detail/mangoflow-ai-chat-sidebar/pfbbldnopphjpkfkalhajnkglnlacboa?hl=en&authuser=0
- Suno AI 音乐 V3 发布,开启音乐创作新时代
自从 ChatGPT 在 2022 年 11 月横空出世以来,我们已经看到生成式 AI 创造出了一些惊人的类人艺术创作,而最新的病毒式传播工具是 Suno,这是一款由 AI 驱动的歌曲生成器。 **Suno AI 是一家致力于将人工智能技术应用于音乐创作的公司。** 他们此前推出的 V2 版本已经能够根据用户的简单描述生成高质量的音乐片段。而这次发布的 V3 版本,则将音乐创作的能力提升到了一个全新的水平。 **V3 版本的最大亮点是能够生成完整的、长达两分钟的音乐作品。** 这意味着,用户只需输入几句话,就能快速获得一首完整的歌曲,包括主歌、副歌、桥段、间奏等等。 **此外,V3 版本还支持多种语言和音乐风格。** 用户可以选择中文、英文、日语等多种语言来创作音乐,也可以选择流行、摇滚、古典等多种音乐风格。 03:48 跳转到官网的音乐示例
- 马斯克开源3140亿参数大模型 Grok-1
马斯克旗下的xAI团队开源了3140亿参数的大模型 Grok-1,这是迄今为止参数量最大的开源语言模型。 **Grok-1 简介** Grok-1 发布于 2024 年 3 月 18 日,由马斯克旗下的xAI团队开发,拥有3140亿参数,是目前开源的最大的语言模型。该模型采用了混合专家模型架构,并支持激活数据分布计算和8位数字精度量化。 **Grok-1 的技术特点** - **参数量巨大:** 3140亿参数,是目前开源的最大的语言模型 - **模型架构:** 混合专家模型架构,能够更有效地处理复杂任务 - **性能优化:** 支持激活数据分布计算和8位数字精度量化,能够在保证性能的同时降低功耗 - **序列长度:** 最大序列长度为8192,能够处理更长的上下文信息
- Inflection-2.5:遇见世界上最好的个人 AI
3 月 7 日,Inflection AI 发布了最新的大型语言模型 Inflection-2.5! Inflection-2.5 是继 Gemini 和 Claude 3 之后,又一个可与 GPT-4 竞争的大模型。它在性能上可以与领先的大语言模型相媲美,但只需 40% 的计算资源,这意味着它可以更广泛地应用于各种场景,包括个人 AI 助理等。 Inflection-2.5 现已向所有 Pi 用户开放,可通过 pi.ai、iOS、Android 或桌面应用程序使用。
- Claude 3 横空出世,AI 再进一步
Anthropic 公司发布了最新一代的大型语言模型 Claude 3 系列,它在各个方面都取得了突破性的进展,代表了 AI 技术的又一次飞跃。 **首先,Claude 3 系列包含了三个不同型号:** - **Claude 3 Haiku:** 最小巧、最快捷、最经济实惠的版本,适用于对速度和成本敏感的任务。 - **Claude 3 Sonnet:** 在速度和性能之间取得了平衡,适合大多数应用场景。 - **Claude 3 Opus:** 功能最强大的版本,拥有最先进的性能,可以胜任最复杂的任务。 https://www.anthropic.com/news/claude-3-family
- KaKuiAI 家驹版的《直到世界尽头》,AI 的力量。
https://youtube.com/@KaKuiAI
- Comlink - 像调用本地对象一样调用远程对象的方法
你是否在前端开发中处理大量数据或执行复杂的计算,你是否在使用 Web Workers 时对 postMessage 操作感到厌倦,那么今天介绍的库一定是你感兴趣的。
- Meta AI团队最新推出的开源代码生成模型Code Llama
今天我们的主题是Meta AI团队最新推出的开源代码生成模型Code Llama。 Code Llama是一个基于Llama 2的代码生成专用语言模型,经过在大规模代码数据集上的继续预训练后,在代码生成任务上取得了领先的性能。Code Llama最大的模型规模达到340亿参数,在HumanEval和MBPP这两个编程基准测试中,其生成代码的正确率分别达到53.7%和56.2%,超过了当前公开的其他代码生成语言模型。 Code Llama提供了三种规模的模型,分别是7亿、13亿和340亿参数,以适应不同的部署需求。此外,Meta还发布了两个细化变种模型,一个是专门针对Python进行了进一步微调的Code Llama - Python,另一个是通过自然语言指令微调的Code Llama - Instruct,后者在处理自然语言提示时表现更优。 Code Llama的训练方式和模型权重都在GitHub上开源,任何人都可以免费使用。这对于代码生成领域的公开创新和安全性来说都是非常重要的。通过社区参与,可以更全面地评估模型性能,发现问题并修复漏洞。 Code Llama的推出为程序员的工作流程带来诸多便利。它可以协助编写新代码、调试bug、代码补全等任务,提高开发效率。未来如果能把Code Llama嵌入到IDE和其他开发工具中,可能会进一步提升编程的效率。 当然,像Code Llama这样强大的工具也存在一定风险,需要谨慎对待。Meta AI团队在发布前进行了大量的安全红队测试,并在随同发布的论文中详细披露了模型的局限性、已知挑战和风险缓解措施。我们希望开发者在使用Code Llama时,也要注意评估安全风险,建立透明的用户交互机制。 Code Llama的开源释出标志着代码生成领域向开放创新迈进了一大步。我们期待 voir 它带来更多有趣的downstream应用和创新成果。如果你对Code Llama感兴趣,记得去GitHub上搜寻相关资源啊!
- 首个真正意义上的多模态翻译系统 SeamlessM4T 开源
昨天,Meta AI团队发布了一项重要研究成果——首个真正意义上的多模态翻译系统SeamlessM4T。这无疑是跨语言无障碍交流迈出的一大步。 SeamlessM4T支持近100种语言进行语音或文本输入,可以翻译输出100种语言的文本和35种语言的语音。这是首个支持直接语音到语音翻译的系统。以往的翻译系统要么只能处理文本,要么需要先识别语音转化为文本,再翻译输出,中间环节增多了错误和延迟的风险。SeamlessM4T作为一个统一的多任务模型,可以同时处理语音识别、语音翻译、文本翻译等任务,翻译更准确流畅。 这主要得益于该团队在语音编码、文本编码、语音解码等多个方面的创新。SeamlessM4T的语音编码器通过学习大量多语种语音,能提取语音中的语义信息,无需额外语种识别。文本编码器基于NLLB模型,支持100种语言的编码。两个编码器协同工作,可处理不同语种的语音或文本输入。此外,该团队还开发了新的建模工具和语料库,进一步提升了模型性能。 可以说,SeamlessM4T实现了语音翻译的全面突破——语言覆盖广泛,翻译质量大幅提高,并支持灵活的多语种语音或文本输入与输出。这为跨语言群体的无障碍交流创造了更大可能。 如今,语言仍是一道重要的界限。据统计,全球约7000种语言中,谷歌翻译支持的语言还不到200种;而语音交互系统支持的语言更少。SeamlessM4T极大拓宽了语言覆盖面,为更多“少语种”用户提供了获得信息和表达自我的可能性。 当然,语音翻译领域还面临许多挑战,离完美系统还有一定差距。但SeamlessM4T的推出无疑是这个领域一个重要的进展。它为后续研究奠定了坚实基础,也向业界发出了进一步推动语音翻译发展的号召。让我们继续努力,推动语言科技为跨文化交流架起沟通的桥梁!