从Twitter @dotey 宝玉的翻译文章列表中挑选了我感兴趣的。
Created about 1 year ago
我清晰地记得被普林斯顿大学拒绝的那一刻。那时我正在数学队的训练中,爸爸打来电话。他告诉我,提前录取通知已经到了。
Added ago
智能能源网格、语音先行的伴侣应用、可编程药品、针对儿童的 AI 工具。我们向 a16z 的超过 40 位合作伙伴征询了他们认为将在 2024 年成为创新动力的重要理念。
OpenAI 还没具体说明 Q\* 是什么,但已经透露了许多线索。
从学术论文的理论到利用 OpenAI、Weaviate 和 LangChain 的 Python 应用实现
深入了解我们如何使用生成式 AI 模型进行创新实验,从而拓宽 GitHub Copilot 在开发者整个生命周期中的应用。
如何通过这些“超参数”和调整策略优化你的检索增强生成(RAG)流程
OpenAI 的发展历程在科技界引发了一场堪比电视剧《继承》的巨大波澜,Sam Altman 在短短大约 72 小时之内,从 CEO 的位置上跃升为微软(Microsoft)的 CEO。
新兴技能的出现催生了一个新职称:要掌握这些技能,我们需要超越简单的命令行编程,转而开发 软件。
未来,个性化的 AI 助手将可以在设备上离线运行,将衍生出很多出人意料的创新
提示工程、RAGs 与微调的对比是每位搭建基于大语言模型(LLM)应用的 AI 工程师都面临的关键选择。
在大语言模型应用阶段,重点是让回答变得非常具体,无论是针对数据集、用户、使用场景,还是特定的调用请求。
仅仅一年时间,ChatGPT 已经深入科学研究的各个领域。七位科学家分享了他们关于这个聊天机器人正确与错误用法的认识与体会。
在我们的分析领域,不同背景的人才聚集一堂。这已经是众所周知的事实,以至于我们往往对此视而不见。有些人对此感到遗憾,比如会想:“如果我能早些投身于分析领域,了解得更多就好了。
我花了许多时间仔细研究大语言模型(LLM)的输出。有一点引起了我的注意:LLM 生成的文章似乎有一种特殊的…感觉。
AI 并非来自外星,而是我们自己的一部分。
我们能否在历史的十字路口避免战争?这个问题一直受到个人、学者、政策制定者和组织的关注。在这项研究中,我们试图基于人工智能(AI)和大语言模型(LLMs)的最新进展来回答这个问题。
小步快跑,助你在软件开发中加速前行。
传统的童话故事结构与我们的思维方式不谋而合,它能有效地指导我们进行战略问题分析,并制定出每个人都能明白的计划。
十多年前,我记下了几段笔记,标题是“建立技术杠杆”,此后我几乎把它忘在脑后。这些笔记记录的是我和 Kevin Scott 在 LinkedIn 担任 SVP 工程师期间的一次会议。
目前,我主要的工作是兼任部分时间的 CTO 服务。坦白说,在进行创新的同时担任这个角色对我来说颇有挑战。同时兼顾这两者非常艰难,所以我暂时放下创新者的角色,专注于规划发展路线图和招聘事宜。
正如我一位同事上周晚餐时所说,现在的 GenAI 就像青少年的性行为:人人都在谈论,但没人真正懂得怎么做,大家都以为别人在做,于是每个人都声称自己在做。
这家公司的 CEO,黄仁勋,把所有筹码压在了一种全新的芯片上。如今 Nvidia 已跻身世界最大公司之列,他的下一步会怎样?
我见过不少初创公司,他们只是简单地整合几个生成式 AI API,做点提示工程,然后加个前端界面。有些产品做得挺精致,功能也不错。
对大部分认识我的人来说,我大多数时间像是一个文本处理程序。既然输入输出都这么简单,一个模型能不能取代我呢?为了实现这一点,模型不只需要模仿我的写作风格,还得对我有深入了解。
本文介绍了 Branches,这是我们开发的一款工具,用于构建和展示先进的大语言模型(LLMs)推理和规划算法的原型。
我听过最恰当的关于创业公司的比喻是,它们就像是淘金之旅。这并非因为其中蕴含的冒险精神、团队间的情谊,或是最终等待着的财富。
YC 看似是个合理的选择。他们提供资金帮助你创业,并承诺让你接触一个能在创业过程中提供帮助的社区。作为回报,他们仅索取一小部分股权。听起来似乎还不错,不是吗?
我最近在伦敦采访了 Cloudflare 的首席执行官 Matthew Prince,我们讨论了人工智能、边缘计算和开发者体验 (DX) 等领域的最新趋势。
在商业领域,绩效的超线性回报尤为明显。有人认为这是资本主义的弊端,认为改变规则就能改变这一现象。但实际上,绩效的超线性回报是世界的一种本质特征,而非我们人为制定规则的副产品。
紧急专题:要弄懂 Q*,我们需要的信息其实就在我们身边,只是网络流行语更比现实生活有趣。
利用像 Claude 这样的 AI 工具,你可以撰写篇幅较长的文章。通过分段撰写,你似乎能保持自己的风格和思路,同时引导 AI。但是,我的实践表明,用 AI 写作比我预期的要难。
我于 2005 年 10 月加入谷歌,18 年后,我递交了辞呈。上周,我结束了在谷歌的最后一段日子。
2023 年即将过去,此刻不失为回首这一年人工智能领域研究成就、产业发展以及开源社区的盛况的好时机。
提示工程,也被称作情境内提示,是一种和大语言模型(LLM)沟通的策略,目的是在不更新模型底层数据的前提下,引导它按我们想要的方式行动。
近期,大语言模型(LLM)展示出在解决数学题目上的出色推理能力。为了让这种能力更上一层楼,我们提出了“从错误中学习”(LeMa)这一方法,它借鉴了人类学习过程中的机制。
如果 Elon Musk 的目的是提升自己社交媒体主页的访问量,他完全有更经济、更简便的方法。在他用 440 亿美元收购 Twitter(近期更名为 X)快一年的时间里,我们唯一能看到的正面表现就是他...
以前,我们的机器学习模型一般都只处理一种类型的数据,比如只处理文本、图像或音频。但是,想想我们人类的大脑。我们不仅仅读写文字,还可以看图、看视频,听音乐,还能够辨识各种不同的声音。
多模态大模型(LMMs)不仅拥有大型语言模型(LLMs)的特点,还拓宽了其多感官技能,例如视觉理解,从而实现了更强的通用智能。
利用大语言模型(LLM)作为核心驱动的智能代理是一个极富创意的概念。有一些令人印象深刻的概念验证示例,比如 AutoGPT、GPT-Engineer 和 BabyAGI,都为我们展示了巨大的可能性。
Login to subscribe this collection.