标签

 芯片 

相关的文章:

了解芯片机遇与未来,荷兰芯片制造商遭受勒索软件攻击,苹果M4芯片曝光,电子DIY入门知识整理,多家中国车企搭载英伟达最新车载芯片等相关内容。

在M系芯片的macOS上安装App Store无法直接安装的iOS app(以雅思哥为例) 并请管理员喝杯咖啡

原文约900字,阅读约需3分钟。发表于:

最近想安装一些App到Macbook运行,但发现大量App的安卓安装包根本无法在M系芯片的Macbook运行,于是我只好尝试iOS的安装包,本文是一些折腾的闭坑指南。 首先获取ipa安装包 首先在iPhone长按app,获取app的安装地址 https://apps.apple.com/us/app/%E9%9B%85%E6%80%9D%E5%93%A5-%E9%9B%85%E6%80%9D%E8%80%83%E8%AF%95%E4%BC%98%E9%80%89app/id961844033 将地址输入到 https://decrypt.day/ 点击Find apps 点击搜索结果 直接下载 点击下载按钮后,有个谷歌的机器人验证,验证通过后就能下载了 下载完成后的文件为ipa结尾 如果我们发现ipa的包版本很老,需要更新,则可以登录网站(可以使用Discord账户授权登录),然后请求砸壳 请求成功后,会有一个Summited的提示,等一天应该就可以了 下载PlayCover https://playcover.io/download/ 下载Nightly版本(2024年5月1日Latest版本有bug,无法使用) 打开PlayCover 导入ipa文件 双击启动即可 如果启动后,App强制要求更新,则查看前文,让网站管理员更新一下包,如果想尽快拿到更新包,可以请管理员喝杯咖啡 大概几个小时,邮箱会收到一封ipa更新的邮件,我们也可以通过更新时间确认版本的更新 小结 虽然Macbook使用了M系芯片,可以支持iOS App的运行,但Apple出于商业化考虑,依然无法实现App使用体验的打通,本文提供的方式,能为用户提供一种选择,让我们可以在macOS尽情使用iOS生态下优秀的App,而不用看Apple脸色行事,让用户真正体验Macbook启用M系芯片的魅力。 本文永久更新地址: https://v2fy.com/p/2024-05-01-15-38-43-ipa/

本文介绍了在M系芯片的Macbook上安装无法直接安装的iOS app的方法,通过获取ipa安装包并使用PlayCover导入ipa文件,用户可以在Macbook上运行iOS app,实现在macOS下使用iOS生态下的优秀App。

相关推荐 去reddit讨论

基于梯度的神经网络芯片上每权重混合精度量化

原文约300字,阅读约需1分钟。发表于:

通过高精度量化训练方法,减少模型大小和推理速度,提高 FPGA 部署的低延迟和低功耗神经网络的资源利用率,同时保持准确性。

本文提出了一种在芯片上进行硬件感知的混合精度量化(OHQ)框架,通过构建在芯片上的量化感知管道(OQA)和基于掩码的量化估计(MQE)技术,实现了从硬件感知的混合精度量化。OHQ 在完全无需额外的计算设备和数据访问的情况下,对各种体系结构和压缩比率进行了量化推理,为 ResNet-18 和 MobileNetV3 分别实现了 70%和 73%的准确率,并且相较于部署中的 INT8,减少了 15~30%的延迟。

相关推荐 去reddit讨论

新 iPad Pro 会用上 M4 芯片?我们发现了这些新细节

原文约1800字,阅读约需5分钟。发表于:

iPad Pro 或跳过 M3,直达 M4。#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。 爱范儿 | 原文链接 · 查看评论 · 新浪微博

苹果新款iPad Pro可能搭载M4芯片,提升AI体验。新款iPad Pro可能在5月7日发布,配备OLED显示屏和更轻薄的设计。苹果还将推出两款不同尺寸的iPad Air和更新的配件。

新 iPad Pro 会用上 M4 芯片?我们发现了这些新细节
相关推荐 去reddit讨论

DRAM(动态随机存储器)的原理及芯片实现

原文约3500字,阅读约需9分钟。发表于:

DRAM(动态随机存储器)在日常生活中还有一个亲切称呼叫内存条,利用电容储存电荷多少来存储数据,需要定时刷新电路克服电容漏电问题,读写速 度比SRAM慢,常用于容量大的主存储器,如计算机、智能手机、服务器内存等。

DRAM是一种内存条,用电容存储数据,读写速度比SRAM慢,常用于计算机、智能手机、服务器内存等。DRAM的发展历史包括磁鼓存储器、延迟线存储器、磁芯存储器、磁带和硬盘驱动器等。DRAM主要分为DDR、LPDDR、GDDR和HBM系列。未来的发展趋势包括3D架构和采用铁电材料设计电容。DRAM的工作原理是通过地址引脚和引脚控制的行列地址门闩线路来读写数据。

相关推荐 去reddit讨论

【WebRTC 专栏】-- 在 Mac M1 等系列芯片编译和开发 WebRTC-Android 库

原文约300字,阅读约需1分钟。发表于:

众所周知,编译 WebRTC-Android 库是需要在 Linux 系统上的,这是由于源码里编译脚本限制导致。 当然也可以在 Mac 平台上进行编译,不过就需要对源码进行魔改了,毕竟拉取的是 Linux 下的源码和相关配置,要把这些配置替换成 Mac 平台上的,比如 Linux 下的 C++ 编译配置、Android NDK 配置等,这种方式侵入性比较大,而且还相当折腾,费时费力。 Docker 容器配置 有一种更好的方式就是使用 Docker 。 在 Docker 上配置 Linux 环境,然后拉取 WebRTC 源码进行编译,再把编译好的产物(库文件)拉取到本地即可。 在 Mac 上使用 Docker 直接下载安装就行了,但创建 Linux 容器时要注意对应的芯片平台。 现在大多数 Mac 应该都是苹果自研的 ARM64 架构的 Apple 芯片,不再是英特尔平台的芯片了。 在 Apple 芯片上直接通过 docker 命令创建容器的话,可能还是 arm64 架构的,这样即使拉取了 WebRTC 源码,在编译库的时候还是会提示不支持 arm64 架构,导致编译失败,这也是实际踩过坑后的经验教训。 需要借助 Docker 的 --privileged=true 选项(特权模式)来指定平台。 使用如下命令来创建容器: 1docker run --privileged -ti --rm --platform linux/amd64 ubuntu:18.04 SHELL 并且通过该命令来查看对应的镜像是什么平台: 1> docker inspect f9a80a55| grep Architecture 2 3"Architecture": "amd64", SHELL f9a80a55 是镜像的 id ,输出是 amd64 的架构。如果没有 --privileged 参数,输出就是 arm64 了。 WebRTC 源码编译 有了镜像之后,接下来就是常规操作,下载 depot tools 并拉取对应源码 。 1fetch --nohooks --no-history webrtc_android 2# 同步下依赖 3gclient sync SHELL 再执行如下命令拉取相关的依赖: 1# 安装WebRTC基础的依赖 2./build/install-build-deps.sh SHELL 通过如下命令编译对应架构的 libwebrtc.aar 文件: 1./tools_webrtc/android/build_aar.py --build-dir Build --arch arm64-v8a SHELL 编译后的 libwebrtc.aar 文件在 src 目录下,在 Build 目录下有对应的编译产物,此时的 aar 还是 Release 版本的。 要编译 Debug 版本的,找到 src/build/toolchain/android/BUILD.gn 文件,修改如下配置: 1# 注释掉下面两行配置,即可实现 unstrip 2# strip = rebase_path("//buildtools/third_party/eu-strip/bin/eu-strip", 3# root_build_dir) 4# use_unstripped_as_runtime_outputs = android_unstripped_runtime_outputs SHELL 编码命令也对应调整: 1./tools_webrtc/android/build_aar.py --build-dir=Build --arch arm64-v8a --extra-gn-args "is_debug=true symbol_level=2 android_full_debug=true" SHELL 这时编译出的 libjingle_peerconnection_so.so 就有几百 M 了,带了 Debug 信息。 这时候通过 docker cp 命令将 libwebrtc.aar 文件拉取到本地就可以用来开发了。 1docker cp {container-id}:path/src/libwebrtc.aa ~/} SHELL VSCode 远程开发 可以编译出 libwebrtc.aar 之后,只需要每次改动代码然后编译一次就行了,但是在 Docker 镜像里面用 Vim 来写代码太不方便。 有一种办法是将镜像里的代码同步到本地,然后本地修改了再同步到镜像中,来回倒腾效率也很低,而且还占存储空间。 有更好的办法是使用 VSCode 的远程开发,通过 VSCode 链接到 Docker 容器,直接访问容器中的磁盘目录内容,在 VSCode 中进行可视化的开发,这样效率就提升很多了,并且还能搭配 VSCode 的各种插件来辅助开发。 具体的操作在 VSCode 中下载对应的 Docker 和 Dev Containers 这两个插件。 然后在左侧红框中就能看到目前有的容器,在右侧红框中选择要关联的容器,之后在选择要开发的目录,找到 webrtc 下载的源码目录就行,效果如下: 这样一来,就可以在 VSCode 中远程开发 WebRTC 代码,而 Docker 容器只用来编译对应的 libwebrtc.aar 库就行了。 前往网页以阅读全文。

本文介绍了在Mac平台上使用Docker编译WebRTC-Android库的方法,并通过配置Linux环境和拉取WebRTC源码进行编译,将编译好的库文件拉取到本地。同时还介绍了使用VSCode的远程开发来提高开发效率的方法。

【WebRTC 专栏】-- 在 Mac M1 等系列芯片编译和开发 WebRTC-Android 库
相关推荐 去reddit讨论

高通 X Plus 芯片发布,性能超越 M3,AI 能力是亮点

原文约2500字,阅读约需6分钟。发表于:

肩负 AI PC 和 Windows on Arm 两个重担#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。 爱范儿 | 原文链接 · 查看评论 · 新浪微博

高通推出骁龙X Elite和骁龙X Plus芯片,是最强的PC芯片之一,也是Windows on Arm的希望。骁龙X Plus和Elite在核心数量上略少两个,但AI能力相同。与苹果M3芯片相比,骁龙X Plus和Elite在多线程CPU性能上领先。与AMD和英特尔产品对比,骁龙X Plus在CPU和GPU性能上领先。骁龙X芯片具有强大的AI和Windows on Arm支持。预计今年年中将有首批搭载骁龙X芯片的产品面世。

高通 X Plus 芯片发布,性能超越 M3,AI 能力是亮点
相关推荐 去reddit讨论
相关推荐 去reddit讨论

高通推出Snapdragon X Plus芯片 号称综合性能超越苹果/英特尔/AMD

原文约1200字,阅读约需3分钟。发表于:

昨晚芯片制造商高通宣布推出 Snapdragon X Plus 芯片,这款芯片主要适用于 Windows on […]

高通推出适用于Windows 11笔记本电脑的Snapdragon X Plus芯片,性能超过苹果、英特尔和AMD芯片,提供10颗核心、42MB缓存、3.4GHz多线程频率、45TOPS NPU、3.8TFLOPs Adreno GPU、LPDDR5x内存支持。部分Win32游戏在Windows on Arm设备上体验良好,需等待OEM真机测试。

相关推荐 去reddit讨论

台积电在美国郊区建造芯片工厂的艰辛历程 [译]

原文约10400字,阅读约需25分钟。发表于:

工期延误以及台湾和美国同事之间的紧张关系正在困扰着这家芯片巨头在凤凰城的扩张。

台积电在凤凰城的扩张面临工期延误和台湾与美国同事之间的紧张关系。工程师们面临语言障碍和文化差异,工作环境紧张。台积电在亚利桑那的工厂目前生产能力有限,仍需进一步发展。台积电的工作文化被认为是高压的,但对于台湾员工来说是值得骄傲的。一些美国员工选择离职,认为台积电是最糟糕的工作地点之一。台积电在凤凰城的工厂建设进展缓慢,但在日本的工厂却取得了成功。台积电仍在努力平衡两种不同的工作文化。

台积电在美国郊区建造芯片工厂的艰辛历程 [译]
相关推荐 去reddit讨论

大模型时代的芯片机遇与未来 | 知乎AI先行者沙龙

原文约4000字,阅读约需10分钟。发表于:

感谢 @知乎科技 邀请参加知乎AI先行者沙龙活动,以下是我的演讲实录。知乎的小伙伴大家好,非常荣幸能够在这里和大家分享我们对于大模型和芯片行业的一些思考和展望。我是季宇,行云集成电路的创始人,也是知乎答主mackler。关于大模型,我们听到的最多的就是Scaling。OpenAI通过多年对Scale的坚持和激进投入,把模型一步步有效推进到千亿万亿规模,实际上证明了AGI这个非常非常难的问题可以通过Scaling这种路径清晰得多也简单地多的方式去不断逼近,今天OpenAI也是把Scale作为他们这个组织坚持的核心价值观之一来不断逼近AGI,今天不光模型尺寸在Scale,上下文长度也在剧烈地Scale。 这种方法论虽然相比AGI这么宏大的目标而言已经足够简化了,但这背后是投入资源的剧烈Scale,单纯的Scale并不是一个经济性的方案。所以我们看到Sam Altman提到7万亿美元的疯狂计划,大家也经常讨论大模型商业落地的巨大成本。 大模型的商业落地相比互联网目前有一个非常巨大的区别,就是边际成本仍然非常高。过去的互联网业务,增加一个用户对互联网厂商的基础设施而言,增加的成本几乎是可以忽略不记的。但今天大模型每增加一个用户,对基础设施增加的成本是肉眼可见的增加的,目前一个月几十美元的订阅费用都不足以抵消背后高昂的成本。而且今天的大模型要大规模商业化,在模型质量、上下文长度等方面还有进一步诉求,实际上还有可能需要进一步增加这个边际成本。今天一个日活千万的通用大模型需要一年超过100亿的收入才能支撑其背后的数据中心成本,未来如果我们希望大模型产业真正像今天的互联网产业一样服务上亿人,模型的质量可能也需要进一步上一个台阶,成本会成为很严重的问题。但对于芯片行业而言,只要适当拉长时间尺度,这些都不会是问题。芯片行业是人类所有工业体系中Scaling技能点最强的。过去大半个世纪,半导体行业一直践行的摩尔定律就是一个关于Scaling的经济性方案。其实NVidia的老黄评论Sam的7万亿美元计划时也提到,芯片本身也会持续演进来不断降低大模型Scaling所需的资源。7万亿会在几年内逐渐变成7千亿、7百亿,逐渐变成一个不是那么夸张的数字。 今天很多人讲大模型的上下文窗口就是新的内存,今天看起来非常宝贵的几K到几M的大模型上下文窗口长度,我们精打细算把重要的信息,各种prompt填入到这有限的上下文窗口里,有点像上个世纪的各种经典小游戏,用很多不可思议的方式在KB级别的内存实现今天看起来已经非常复杂的游戏。但在不远的未来,芯片行业就可以把上下文窗口逐渐变得和今天的内存一样非常便宜,随便一个hello world就直接吃掉MB级别的内存,随便一个应用就GB级别的内存占用。未来我们也一样可以随随便便把一个领域的全部知识装进上下文里,让大模型成为绝对意义上的领域专家,也可以让大模型拥有远超人类一辈子能接受的全部上下文,从而引发大模型走向新的质变。最近几年其实说摩尔定律放缓的观点很多,这也是实际情况,先进工艺的研发投入资金也在指数级飙升,使得维持摩尔定律逐渐变得失去经济性。但芯片行业的Scaling不只是晶体管的微缩推动的,NVidia的GPU过去十年靠架构继续推动放缓的摩尔定律持续保持非常高的增速,算力成本降低了一千倍。而今天大模型进一步打开了更多芯片的演进空间,今天大模型对芯片的需求从算力转向了内存和互联,内存系统和互联的Scale空间更大,除了半导体工艺的演进外,封装工艺的发展、硅光都对内存和互联的设计打开了巨大的空间。大模型今天也早已经全面走向分布式,今天不仅仅是单颗芯片的设计,也进一步扩展到服务器、机柜、网络层面,这些层面都有比原来有大得多的设计空间,未来芯片的增速不仅不会放缓,反而会比今天更快。 从大模型未来大规模商业化来看,大模型对芯片的主要需求实际上已经转向内存和互联,因为我们需要足够多的高带宽内存通过互联系统连接起来形成一个巨大的高带宽内存来支撑大模型的服务。 今天我们经常讨论的售卖Token的价格,实际上Token和Token是不一样的,一个7B模型的Token和千亿万亿模型的Token肯定不等价,一个4K上下文的Token和一个2M上下文的Token也不等价。Token的质量实际上和模型规模以及上下文窗口都是强相关的。模型权重是模型在训练时候对整个数据集的压缩和泛化,是对世界和常识的理解,而上下文对应的KV-Cache是对上下文的理解。而权重和KV-Cache其实也是大模型对内存最主要的需求,这部分的访存速度也决定了Token生成的速度。我们可以把Token的业务质量和这个Token对应的权重以及KV-Cache的总访存量直接挂钩。高质量的Token生成过程中需要更大的访存量,低质量的Token生成过程中需要的访存量也相应更小。而售卖Token对硬件系统而言实际上是售卖内存系统的访存带宽。 一个容量足够大的内存系统才能提供足够高质量的Token服务,一个内存带宽性价比足够高的系统才能带来更好的服务成本。物理世界中的内存介质选择往往要带宽就没有容量、要容量就没有带宽。当然这也没办法,如果存在一种内存介质容量和带宽都比另一种都要低,也就被淘汰了,容量和带宽总得占一个才会被筛选出来。所以今天继要容量大又要带宽性价比高,往往需要通过足够有性价比的互联系统将大量高带宽内存连到一起,这里面是存在非常大的设计空间的。这也是中国AI芯片行业真正实现商业化的一次巨大机会,过去十年大家都是在卷算力,算力的竞争往往不只是峰值算力指标的竞争,算力和编程模型、软件都有很强的耦合性,算力指标对先进工艺也有很强的依赖性。这两点实际上造成了过去十年大量AI芯片在产品定义和供应链安全方面都遭遇了巨大的困难。大模型今天把芯片产品的竞争力拉到了内存和互联维度,这些维度相比算力都标准化得多,对解决产品定义问题提供了新的可能性,标准化的维度更贴近指标竞争,就像今天大家买网卡或者交换机时候只关注指标而不关注是哪家的产品,这就是标准化竞争的好处。今天AI芯片可能介于网卡交换机这种纯标准化的竞争和过去那种纯算力这种非标竞争之间,相比过去是存在更多空间来解决产品定义的问题。内存和互联对先进工艺的依赖度相比算力也更少,而且扩大到机柜甚至集群层面,有更多竞争的可能性,今天在封装、互联层面有更多发挥空间,也降低了对先进制程的依赖,在供应链上也存在更多的选择。我们如果看当下和未来两三年,其实大模型的商业探索也是在成本和Token质量上相互妥协,也逐渐分化成了两派。一派是质量优先,用高端系统打造高质量的通用大模型,寻找超级应用来覆盖高昂的成本。另一派是成本优先,用足够便宜的硬件上,提供基本够用的Token质量,寻找垂直场景的落地。从芯片未来两三年的短期Scaling来看,也会从两个路径来解决这两派在成本和质量上的纠结。一种是高端系统的成本的大幅度下降,显著降低超级应用需要承担的成本,另一种是低端设备的规格大幅提升,显著提升低成本设备下可以支持的Token质量。今天很多人讲7B模型已经够用了,或者努力让7B或者更小的模型变得够用,其实也是一种无奈,如果能在同样的成本下买到规格大得多的芯片,跑一个百亿千亿模型,支持超长上下文,商业化的空间会比今天大得多,就像曾经的显卡和游戏行业一样,当足够便宜的显卡已经可以流程跑4k画质的时候,谁还会觉得1080p的画质也够用了呢?两三年后,随着芯片行业的发展,不会再有人需要小模型,大模型长文本的高质量Token会变得足够便宜。往更长远看,大模型的成本模型对于商业形态都会产生巨大的变革。很多传统互联网业务具有巨大的固定成本,而边际成本非常低,一个集中式的云往往就是最经济的商业形态。今天大模型实际上把信息高度压缩到一个足够小的系统中,甚至是单个用户在未来可能承受的。同时,今天大模型服务的边际成本相比固定成本占比已经非常高,短期内仍然在云端更多是因为边际成本对于用户来讲还是太高了,并且商业模式也还未大规模爆发,用户也不会愿意为一个尚未大规模商业化的需求承担这部分边际成本。因此未来两三年内仍然是云端承担大量的边际成本来探索商业化的可能性,芯片行业帮助降低成本加速商业化。但随着大模型大规模商业化爆发,这种成本模型实际上会造成巨大的浪费。试想一下以后我们常用的几十种不同的应用都独自提供大模型服务,这些边际成本对于所有厂商都是巨大的,而羊毛出在羊身上,最终还是会转嫁到消费者身上,就像今天需要付费订阅各种大模型厂商。随着芯片行业进一步降低成本,大模型落到端侧会变成总体更加经济的成本模型。就像今天的游戏市场,游戏画质的成本是游戏玩家自己买的显卡来承担,游戏玩家也无需为想玩的不同游戏单独为画质付费,游戏厂商也无需承担这部分成本。大模型也是类似的,未来芯片的Scaling让用户可以在端侧低成本跑极高质量的大模型,无需为不同的云端服务承担独立的大模型订阅费用,大模型的高度智能也能更容易打破不同应用之间的壁垒,还能在端侧更好地协同起来,实现更好的体验。当然这和今天AI PC这一类在端侧跑低成本的小模型还是有本质区别的,还有待于芯片行业的迭代,让大家能在比今天更低的成本下跑起来未来的旗舰模型。我们相信大模型能随着芯片行业的Scaling逐渐低成本走进千行百业,也走进大家的生活。我们也相信在大模型时代,AI芯片迎来了真正商业化的机会,可以把产品定义和供应链的问题解决好,也在更多维度创造出更有竞争力的芯片产品。我们行云也希望在未来努力把这些都变成现实,非常感谢大家! 来源:知乎 www.zhihu.com 作者:知乎用户(登录查看详情) 【知乎日报】千万用户的选择,做朋友圈里的新鲜事分享大牛。 点击下载

行云集成电路创始人季宇在知乎AI先行者沙龙活动上分享了对大模型和芯片行业的思考。大模型商业化面临高边际成本问题,而芯片行业的Scaling技能可以解决这个问题。芯片行业的发展将使大模型的内存和互联变得更便宜,支持更高质量的Token服务。芯片行业的发展也将带来大模型商业化的机会,解决产品定义和供应链问题。大模型的商业化将改变成本模型,使大模型能够在端侧低成本运行,实现更好的体验。

大模型时代的芯片机遇与未来 | 知乎AI先行者沙龙
相关推荐 去reddit讨论