标签

 gpt 

相关的文章:

了解GPT-4及其衍生模型的最新研究进展,包括代码生成器、训练模型的方法和自主学习的特点。这些模型在大模型领域取得了重要突破,值得关注。

LWiAI Podcast #175 - GPT-4o Mini, OpenAI's Strawberry, Mixture of A Million Experts

原文英文,约200词,阅读约需1分钟。发表于:

Our 175th episode with a summary and discussion of last week's big AI news!

本期节目主持人Andrey Kurenkov和Jeremie Harris讨论了上周的重大AI新闻,包括OpenAI发布的GPT 4.0 Mini和Mistral的开源模型,以及它们对价格和性能的影响。他们还探讨了企业合规工具、文本到视频模型和YouTube音乐的改进。此外,还讨论了AI研究领域的一些话题,如多个小型专家模型的好处、新颖的基准测试技术和先进的AI推理。还讨论了一些政策问题,包括美国对中国的AI技术出口管制和OpenAI内部的争议,以及埃隆·马斯克的超级计算机计划和OpenAI的Prover-Verify Games倡议。

LWiAI Podcast #175 - GPT-4o Mini, OpenAI's Strawberry, Mixture of A Million Experts
相关推荐 去reddit讨论

Meta Llama3.1——405b大模型震撼发布——性能全面超越GPT-4o,中国AI厂商是否迎来春天?新的时代到来了,历史的车轮滚滚向前。

原文约7800字,阅读约需19分钟。发表于:

Llama3.1 405b突然开放,指标上全面超越GPT-4。中国厂商们是不是又可以充了呢?大家好,这里是老范 […]

中国的Llama3.1 405b模型超越了GPT-4,支持8种语言但不支持中文。Llama3.1是Llama系列的第一个多模态大模型,需要大量显卡和云端支持。Llama3.1的开源模型引发了中国的价格战,中国团队开始冲锋。Llama3.1的发布对开源生态系统有积极影响,中国团队有望超越GPT-4。

相关推荐 去reddit讨论

结合数据和知识的威力:GPT-4o 在预测肺癌淋巴结转移中作为机器学习模型的有效解释器

原文约300字,阅读约需1分钟。发表于:

利用大型语言模型和机器学习模型,提出一种新的集成方法来改善肺癌淋巴结转移的预测性能,实验结果表明,大型语言模型能够有效利用其医学知识和机器学习模型预测的概率,实现更准确的淋巴结转移预测,为临床风险预测任务提供了新的范例。

该研究提出了一种多步骤评估法的大型语言模型(LLM)评估范例,通过交互方式评估GPT-4-Vision-Preview在病理学领域的医学诊断准确性,结果显示约84%的正确诊断。该方法可应用于评估其他LLMs的准确性和实用性。

相关推荐 去reddit讨论

OpenAI推出GPT-4o等模型微调工具 可用来进行针对性训练获得更好的输出结果

原文约1200字,阅读约需3分钟。发表于:

#人工智能 OpenAI 推出 GPT-4o 等模型的微调工具,可以用来进行针对性的训练获得更好的输出结果。该工具目前仅限于 API 平台第 4~5 级开发者,后续会逐渐向更多开发者开放,即日起至 9 月 28 日开发者每天可以免费使用 200 万 tokens 进行训练微调,超出部分将按照微调工具的 API 进行收费。查看全文:https://ourl.co/105107

OpenAI推出了GPT-4o等模型的微调工具,用于训练获得更好的输出结果。该工具目前仅限于API平台第4-5级开发者,后续将向更多开发者开放。开发者可以免费使用200万tokens进行训练微调,超出部分将按照API进行收费。微调工具支持多种模型,改善模型输出结果质量,提升few-shot-learning效果。

相关推荐 去reddit讨论

GPT-4o mini登顶大模型竞技场,奥特曼:两个月内微调免费

原文约2000字,阅读约需5分钟。发表于:

与满血版平起平坐

GPT-4o mini has become the top performer in the large model arena, matching the full-blooded version at a fraction of the cost. OpenAI is gradually allowing fine-tuning of GPT-4o mini and offering 2 million free training tokens daily until September 23. In the lmsys rankings, GPT-4o mini is tied for first place with the full-blooded version, only 7 points behind. The release of GPT-4o mini has led to the development of smaller models by other companies.

相关推荐 去reddit讨论

Meta发布Llama 3.1开放模型 最高4050亿参数 能力超过GPT-4等非开放模型

原文约1200字,阅读约需3分钟。发表于:

#人工智能 Meta 发布 Llama 3.1 系列开放模型,最高提供 4050 亿参数版本,多项测试表明其能力超过 GPT-4o 和 Claude 3.5 Sonnet 等闭源模型。即日起开发者即可通过多个云平台使用 Llama 3.1 或通过 Meta 下载该模型进行调试,虽然开放不等于开源,但除非是大型科技公司否则 Llama 模型可以随便用。查看全文:https://ourl.co/105099

人工智能Meta发布了Llama 3.1系列开放模型,最高提供4050亿参数版本,能力超过GPT-4和Claude 3.5 Sonnet等闭源模型。开发者可通过云平台或Meta下载模型进行调试。Llama 3.1-405B版能力超过GPT-4-0125、GPT-4o和Claude 3.5 Sonnet。扎克伯格表示,Llama已在开放性、可修改性和成本效率等方面处于领先地位。

相关推荐 去reddit讨论

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了

原文约2000字,阅读约需5分钟。发表于:

Llama 3.1已正式发布,上下文长度扩展至128K。405B版本的Llama 3.1能够与最佳闭源模型竞争。研究论文《Llama 3系列模型》揭示了Llama 3系列的细节。高质量模型的开发依赖于数据、规模和复杂性管理。Llama 3.1在数据质量和数量方面有了显著改进。405B模型通过将16位量化为8位,支持大规模生产推理。训练堆栈已经优化,并在后训练阶段进行了多轮对齐。Llama 3系列还包括图像识别、视频识别和语音理解的多模态扩展。Llama 3.1的生态系统已准备就绪,有超过25个合作伙伴提供服务。

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了
相关推荐 去reddit讨论

清华领衔发布多模态评估MultiTrust:GPT-4可信度有几何?

原文约3500字,阅读约需9分钟。发表于:

清华大学等研究人员发布了名为MultiTrust的综合基准,对多模态大语言模型的可信度进行了全面评估。研究人员发现多模态大模型存在幻觉、偏见、隐私泄漏等安全威胁,并维护了一个多模态大模型可信度榜单。未来需要创新高效的算法来提升多模态大模型的可信度。

清华领衔发布多模态评估MultiTrust:GPT-4可信度有几何?
相关推荐 去reddit讨论

SDoH-GPT: 使用大规模语言模型提取健康社会决定因素 (SDoH)

原文约500字,阅读约需1分钟。发表于:

利用基于对比示例和简明指导的 SDoH-GPT 方法,通过降低时间和成本来提取社会健康决定因素 (SDoH),验证了其在医疗记录分类方面的创新能力,以极高的准确性和计算效率稳定维持 0.90+ AUROC 分数。

社会卫生决定因素(SDoH)在儿科人群中起关键作用。研究使用儿科社会历史标注语料库(PedSHAC)和大型语言模型(LLMs)评估SDoH的自动提取。PedSHAC包含1260个儿科患者的临床记录,涵盖十个健康决定因素。通过精细调整的基于LLM的提取器,实现了高性能。结合GPT-4的上下文学习方法,展现了可靠的SDoH提取前景。

相关推荐 去reddit讨论

开源=最强大模型!Llama3.1发布,405B超越闭源GPT-4o,扎克伯格:分水岭时刻

原文约6000字,阅读约需15分钟。发表于:

近100页论文详解一切

开源模型Llama 3.1发布,超越闭源模型GPT-4o和Claude 3.5 Sonnet。Llama 3.1支持八种语言,上下文长度扩展到128K。模型架构采用标准的仅解码器的Transformer架构,并做一些细微改动。Llama 3.1的推理成本低,支持实时和批量推理、监督微调等。开源人工智能对开发者、Meta和世界都有好处。

相关推荐 去reddit讨论