GSoC 2025项目实现了BFloat16类型在LLVM libc中的支持,包含基本数学函数。BFloat16是一种适用于AI和机器学习的16位浮点格式,性能优于IEEE binary32。项目旨在确保其在所有编译器和平台上的兼容性,未来计划实现更多高阶数学函数。
Vulkan 1.4.311 规范引入了 VK_KHR_shader_bfloat16,支持 SPIR-V 着色器中的 BF16 类型。Mesa 25.2 更新了英特尔 Vulkan 驱动程序,增强了对 BFloat16 的支持,推动了 Vulkan 加速的人工智能和机器学习应用。
Vulkan 1.4.311 更新发布,修复了一些问题,并新增两个扩展:VK_EXT_fragment_density_map_offset(允许指定片段密度图偏移)和 VK_KHR_shader_bfloat16(支持着色器中的 BF16 操作,促进机器学习与 AI)。
TensorFlow 2.19发布,主要更新包括LiteRT的C++ API变更、tflite支持bfloat16,以及停止发布libtensorflow包。Keras 3.0的多后端更新将发布在keras.io。
本研究提出了AnchorAttention方法,解决了BFloat16格式与Rotary Positional Embedding结合时的数值问题,提升了长上下文处理能力,训练时间缩短超过50%,同时保持了大型语言模型的任务能力。
通过参数高效微调可以提高大语言模型的性能,对多语言评估表明英语和其他语言性能差距大。微调是弥合差距的有效方法。本研究通过对合成多语言数据进行微调,评估其对模型在涵盖23种语言的五个下游任务上的性能影响。发现微调较小的开源模型可以弥合模型性能差距,但对英语性能有所降低。微调有时可以提高低资源语言性能,但在高资源语言上性能可能下降。
完成下面两步后,将自动完成登录并继续当前操作。