在芯片公司做算法有前途吗

在芯片公司做算法有前途吗,第1张

芯片算法工程师前景好。

岗位职责:

1 负责边缘计算芯片的原型验证环境搭建、测试

2 负责卫星数据的深度学习算法开发

3 负责边缘计算芯片中的算法部署

4 通过实际场景测试,调优算法和实现,指导芯片的应用

所以说芯片算法工程师前景十分好。

3月28日,智东西公开课组织的「自动驾驶新青年讲座」第16讲顺利完结。在这一讲中,地平线工具链核心开发者杨志刚以《基于征程5芯片的Transformer量化部署实践与经验》为主题进行了直播讲解。

杨志刚首先介绍了Transformer发展趋势及在嵌入式智能芯片上部署的问题,之后重点讲解了以征程5为例的嵌入式智能芯片的算法开发流程,并对以SwinT为例的量化精度提升和部署性能优化做了详细解读,最后分析了如何在征程5上既快又好地部署Transformer模型。

本次讲座分为主讲和Q&A两个环节,以下则是主讲回顾:

大家好,我叫杨志刚,在地平线主要负责天工开物工具链的开发,比如征程2、征程3、征程5上的系列量化工具和算法工具的一些开发和验证工作。因此和我们公司内部的算法团队、编译器团队都有比较深入的接触。

今天我分享的主题是《基于征程5芯片的Transformer量化部署实践与经验》,然后也会从量化和部署两个方面分析如何让Swin-Transformer在征程5上跑得既快又好。

以下是本次讲座的主要内容,大概分为4个部分

1、Transformer发展趋势及在嵌入式智能芯片上部署的问题

2、以征程5为例的嵌入式智能芯片的算法开发流程

3、以SwinT为例的量化精度提升和部署性能优化

4、如何在征程5上既快又好地部署Transformer模型

01

Transformer发展趋势

及在嵌入式智能芯片上部署的问题

第一部分是Transformer的发展趋势以及它在嵌入式智能芯片上的部署问题。最近,我估计大家都对Transformer势不可挡的趋势有所了解,它确实已经在NLP领域甚至在图像领域都起到了不可替代的作用。比如从2017年Transformer被提出来以后,因为它超强的序列建模和全局建模的能力,所以Transformer模型结构其实已经在整个智能模型结构里有着越来越重要的地位。

一方面,它引领了一个大模型的潮流(当然这个潮流主要是指NLP领域),比如最近比较火的BERT、GPT等这样以Transformer为基础的模型其实在NLP领域已经起到了一些根本性的变革,还有像GPT这种模型的参数量从亿级别到千亿级别,我们能看到 Transformer的容量还有模型发展的趋势都朝着越来越大的方向发展。当然越来越大的前提是我们可以通过更大的模型去获取更高的精度,所以这个量级基本上已经从亿级别到了千亿级别、万亿级别。

另外一方面,Transformer不仅在NLP领域引领了大模型的潮流,而且在图像领域也有着越来越重要的地位。我这里截的图(如图一所示)主要是它在Backbone也就是分类ImageNet上面的一个趋势图,可以看到随着它的计算量、参数量越来越大,它的正确率也会越来越高。

事实上它在常见的基础任务中(比如说常见的检测、分割、跟踪等这样的任务)制作刷榜的时候,可以看到前几名里基本上已经遍地都是Transformer的影子了。所以比如常见的以Swin-Transformer为例的encoder,以DETR为例的decoder,还有时序、BEV等这种用Transformer做特征融合的,不管在图像领域的哪一个阶段,我们都可以把Transformer的特性和CNN结合,甚至替代CNN的模型结构。无论是替代CNN还是和CNN结合,这两个发展方向都已经成为视觉领域的常用做法,所以整体上来说Transformer在现在的图像领域里已经是无法绕开的模型结构了。

其实我在标题里面新加了一句话“通向通用人工智能的一扇门”,当然这个话我不敢说,我也是在一些别的信息上看到的。现在基本上认为,在我们做特征提取的阶段中,Transformer是通用人工智能的一种组件,所以也被称为一扇门,不过这个不是我们今天要分享的重点。

Transformer确实在模型结构上起着越来越重要的作用,但是另一方面,它在嵌入式端部署的问题也会受到越来越多的重视。具体来说,Transformer越来越大和嵌入式智能芯片部署这两个方向的出发点是有区别的,比如说Transformer模型在发展上是越做越大、越做越宽,但是嵌入式智能芯片因为受到成本、功耗等方面的限制,导致它在算力、带宽等很多功能方面受限,这就导致当前的嵌入式智能芯片不管是部署稍微大一点的还是小一点的Transformer模型,都会有一些吃力。

这里我讲三个主要的例子。第一个因为嵌入式智能芯片受到成本和功耗的限制,所以它的算力、带宽、内存等方面都会受到一定的限制,这就直接导致像Transformer这样的大模型的部署会受到限制。因为如果用一个大模型去部署一个小算力的平台,就算不是Transformer哪怕只是普通的CNN,性能显而易见的可能会极差,更何况是Transformer这样的大模型在小算力平台上的部署很明显会有一些缺陷。

第二个特征是目前市面上比较流行的嵌入式智能芯片通常都会以低精度的方式来处理部署的模型。当然低精度之外也会少量的去支持一定精度的浮点,这个原因和算力、带宽受限是一样的,主要还是从成本、功耗等这方面的情况考虑的,所以这就直接导致了如果想要在嵌入式智能芯片上部署的话,那么这个模型可能要经过一些量化,但同时量化不能有一定的精度损失。否则如果精度损失比较大的话,这个部署就是没有意义的。

第三点是芯片的发展其实是滞后于算法的。关于这一点,在我们公司罗老师之前的分享当中(地平线罗恒博士:如何打造一颗好的自动驾驶AI芯片)有比较详细的描述,大家如果有兴趣可以去看一下。简单来说,就是芯片从设计到正式量产需要经过一个漫长的过程,这个过程可能是2-4年。因此现在市面上流行的嵌入式智能芯片基本上是源自于1-2年甚至更长时间之前的设计,而那时候设计的嵌入式智能芯片很大概率没有考虑Transformer的情况,因为那时候可能大部分市面上流行的还是以CNN为主的模型,所以这样就会造成现在大部分嵌入式智能芯片对CNN的部署非常友好,但是对Transformer的部署存在一定的gap。今天我们就要讨论这个gap到底来自哪里。

下面我们详细拆解一下刚刚讲到的问题:Transformer部署过程中会遇到哪些问题?

第一个是量化问题,其实Transformer的量化问题现在我们能在很多社区的论文或者一些博客当中看到。首先,它为什么要经过量化?我刚刚简单讲了一下,它是从成本、功耗等方面考虑的。如果用int8或者低比特的量化部署,它的好处是显而易见的,比如可以降低功耗、提高计算速度、减少内存和存储的占用。这里有个数据对比,Transformer部署的时候其实会有一些常见的问题,如果熟悉量化训练的同学应该比较清楚,Transformer模型当中有大量的非线性函数,比如说像GeLU、LayerNorm这样的东西。所以它激活值的输出和高斯分布会有比较大的差异,这就直接导致了很大一部分之前在CNN中最常用的对称量化的方法,可能会出现很明显的精度问题。

如果要解决Transformer的量化精度问题,社区有很多常见的经验。我这里举两个例子,比如用非对称量化等方法去处理分布不均衡或高斯分布差异较大的情况,还有一些情况可能会直接在硬件上使用浮点的SoftMax或LayerNorm,这种情况肯定是可以解决量化问题的,但实际上我们需要和硬件结合,而硬件上到底能不能支持浮点或者能不能支持非对称性量化是我们需要考虑的另一个问题。我们今天要讲的征程5的平台,它就是一个纯int8的嵌入式智能平台,如果要在一个纯int8的嵌入式智能平台上去部署一个浮点的SoftMax或者LayerNorm显然是不合理的。甚至有一些情况就算它是纯int8的,可能也不支持非对称量化,所以我们如果要解决Transformer量化不友好的问题,还需要结合硬件的特点来考虑。

Transformer模型部署的第二个问题是Transformer对算力的要求比较高。开始也讲到,Transformer是近年来最受关注的神经网络模型,而Transformer在机器视觉领域最重要也是最彻底的应用就是Swin Transformer,这个工作也得到了机器视觉领域最高的奖项,马尔奖。这里我们以Swin-Transformer为例。我们考虑Swin-Transformer这个最小的模型,它的计算量大概是45G左右。

说45G可能很多人没有直观概念,我做了两个简单的对比,这就约等于我们常用模型里的EffcientNetB4和ResNet50。说到ResNet50,很多人就有概念了,如果我们用ResNet50的水平去做部署的话,其实市面上很多算力稍微低一点的嵌入式智能芯片部署就会有点吃力了。如果有人知道地平线的历史,比如地平线的上一代芯片跑ResNet50是可以跑的,但它的效率不是很高,而且这还是CNN的部署效率,如果在Transformer上效率会进一步降低。这样考虑的话,整个SwinT部署的前提条件就是芯片的算力达到一定的要求。

除了刚才提到的SwinT的基础还有量化问题之外,还有一个比较重要的问题就是我们一直在讲的Transformer和CNN模型到底有哪些区别?为什么说我的芯片可以部署ResNet50,但是没法部署Transformer呢?其实这就是CNN模型和Transformer模型之间一个比较重要的区别。如果我们比较熟悉CNN模型,就会知道CNN基本上从头到尾只有一个卷积,或者有少量的非卷积算子,如RoiAlign。所以整个CNN模型实际上是以卷积和矩阵乘为主的。换句话说,这类算子的特征是以计算密集型算子为主。我们早期的智能芯片为什么并发能力强,因为智能芯片设计之初就是以这样的CNN模型为出发点的,它的重点是利用并发去解决计算密集型的问题。

但在Transformer里情况是不一样的,Transformer里除了我们刚刚说到的卷积和矩阵乘以外,还有大量像Elementwise、Reduce这样的访存密集型算子。访存密集型算子和计算密集型会有明显的区别,会要求我的访存带宽或者访存本身的存储容量比较高,同时不规则的数据搬运比较多,不像CNN中,一个4d-tensor可以从头到尾,而且我的4d-tensor的规则可能非常明显:W/H维度做下载样,C维度做特征变长,这种4d-tensor的特征对整个嵌入式智能平台是非常友好的。

但Transformer中不规则的数据搬运会明显多很多,比如像Swin-Transformer,我们做window partition和window reverse时会有很多Reshape和Transpose的操作,这种操作带来的问题是效率会进一步降低。事实上这个问题是整个Transformer或者说整个芯片行业都会遇到的一个问题,不仅是嵌入式智能芯片会有这样的问题,训练芯片也会有类似的问题。

我记得早几年前英伟达在测试上做过一个OPS的简单统计,这个细节就不说了,大体上的结论是纯粹计算型的算子,比如卷积和矩阵乘这样的算子在计算量上占比大概998%,但实际上它在英伟达芯片(就训练芯片上而言)的执行时间只有60%。换句话说,训练芯片本身有大量的占比很低的非计算型算子,但这些算子却花费了40%的时间。这个问题在Transformer部署嵌入式智能芯片时,会被很大程度的放大。常见的嵌入式智能芯片可能会有大量的时间浪费在访存算子和不规则数据搬运上面。

总结一下第一部分,就是嵌入式智能芯片由于受到成本、功耗等方面的限制,设计思路和实际上需要部署的Transformer模型之间有较大的区别。

02

以征程5为例的

嵌入式智能芯片的算法开发流程

第二部分重点讲一下嵌入式智能芯片的开发流程,这里虽然是以征程5为例,但实际上我们通过目前的调研或者就目前大部分嵌入式智能芯片总体上看,开发流程基本上是一致的,所以换句话说,大家要解决的问题基本上类似。

首先简单讲一下征程5的基本情况,这在之前的系列课里有比较充分的描述,是讲征程5是怎么设计出来的,然后针对智驾平台有怎样的创新或者怎样的用处,我就不多讲了,这里我主要讲这几个基本情况是如何符合Transformer部署的前提条件的。然后这个也和我们刚才说的常见的嵌入式智能芯片部署的缺陷对应上。

第一点是大算力计算平台,首先我们得有一个大算力计算平台作为前提,才有可能去部署Transformer系列模型。如果是小算力的话,刚刚也讲了,比如上一代征程3想部署Transformer可能就比较困难。

第二个重点是丰富的算子支持。我们在刚才Transformer的结构图中也能看到这点为什么比较重要,CNN模型的主体是以卷积为主,配合少量其他算子,如RoiAlign等。但Transformer中其实有很多很杂的算子,比如说像LayerNorm、SoftMax,还有Reshape、Transpose等,所以说智能芯片部署Swin-Transformer或者其他Transformer的前提条件除了大算力之外,还需要非常丰富的算子知识。

另外是最强的计算性能,我觉得在我们Transformer的部署中其实没有太多的参考价值,因为它是以CNN为基础的模型进行统计的,也就是以计算密集型的模型统计的,但Transformer的能力跟这个还是有比较明显的差距。

最后一点是超低功耗,这点也需要多讲,因为它本身也是征程5的亮点之一。地平线的征程5和天工开物工具链,其实已经积累了一套比较完善的软件工具,这套软件工具从用户训练的浮点模型开始,然后做量化、训练、编译、部署、优化等,最终部署到嵌入式端。以量化为例,基本上整个芯片工具链会提供PTQ的后量化和QAT的量化训练这两种量化方式。在优化编译阶段,可以提供Checker、Calibrator和分析、仿真等工具,最终可以保证用户的模型经过量化、优化后,能部署到嵌入式端。这里需要说一下早期的天工开物整个工具链的积累其实是基于CNN模型的,后面我也会讲为什么基于CNN模型积累下的整个芯片工具链在处理Transformer模型时,不管是量化还是优化部署方面都有一定缺陷。

下面是如何利用整个天工开物工具链帮助用户把浮点模型快速部署到嵌入式芯片上。这就是我一开始讲的,各家的芯片工具链、各家的嵌入式智能芯片的部署流程已经趋于相同了,整体上都是从算法迁移代价足够小的角度考虑,所以基本上已经是一个标准流程了。然后我们来看一下这个流程,从浮点训练开始,经过PTQ后量化的校准,如果后量化的精度满足要求我们就可以直接编译优化、最终部署;如果不满足要求可以反过来去做量化感知训练,量化感知训练的目的是使精度达到要求,并最终去做模型定义。那么如果我们要处理这种Transformer部署优化的流程,要处理的两个重点就是量化调优和编译优化,主要是利用量化公式去提升量化精度。第二个是在编译过程中,用手动或自动的方式去获取更好的部署性能。

天工开物工具链首次把Swin-Transformer部署在征程5上,其实没有遇到太多困难,当然这个前提我刚刚已经讲了,首先它有大算力,然后丰富的算子知识,这两点我们在征程5上的部署过程比较简单。这里简单讲一下支持哪些算子,其实了解Swin-Transformer的人应该都了解,比如说有Reshape、roll、LayerNorm、matmul等。这里为什么需要算子完全支持?我们一开始做这个事情的时候发现 ONNX opset上面没有完全支持roll,所以当时测Swin-Transformer在其他品牌上的结果时,还需要单独处理roll的情况。最近,我们发现opset上已经支持roll了,但另一个方面说明一些嵌入式智能芯片的平台不管是由于使用的工具还是最后部署的芯片的限制,想做到算子完全支持有一定的门槛。

<p class="ql-al

本文来自易车号作者车东西,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关

未来AI芯片研究的关键技术有哪些?

未来AI芯片研究的关键技术有哪些?

随着人工智能技术的迅速发展,在未来的几年里,人工智能芯片技术将成为人工智能产业的核心竞争力。然而,人工智能芯片的研究和开发仍然面临着许多挑战和难题。本文将探讨未来AI芯片研究的关键技术。

1高效的计算和存储技术

在人工智能领域,强大的计算和存储能力是必要的。未来的AI芯片需要具有更高的计算速度和更大的存储容量,以应对日益复杂的人工智能任务。因此,高效的计算和存储技术是实现AI芯片的关键技术之一。

2高效的能源利用

高效的能源利用是未来AI芯片研究的另一个关键技术。与传统的计算机芯片相比,人工智能芯片需要更多的能源来运行复杂的算法和任务。因此,未来的AI芯片需要利用更少的能源来完成相同的任务。这就需要研究和开发低功耗的芯片和优化人工智能算法,以实现更高效的能源利用。

3可编程性和可扩展性

未来的AI芯片需要具有更高的可编程性和可扩展性。人工智能算法的特殊性使得设计者需要为不同的任务进行定制化开发,同时也需要在不断变化的市场需求下随时调整芯片的性能和功能。因此,可编程性和可扩展性是未来AI芯片研究的关键技术。这将使得开发者可以更快地调整人工智能系统,适应各种不同的任务和需求。

4安全性和可靠性

未来的AI芯片需要具有更高的安全性和可靠性。在未来,许多人工智能产品将会涉及到涉及到隐私和安全问题。因此,AI芯片需要具有高度的保护措施,保证用户的隐私和数据的安全。同时,AI芯片还需要具有高度的可靠性,以避免在复杂的任务中出现故障。

总结:

未来AI芯片研究的关键技术包括高效的计算和存储技术、高效的能源利用、可编程性和可扩展性、安全性和可靠性。这些技术将为未来的人工智能产业提供重要的支持,推动人工智能技术的进一步发展和提升。

首先要恭喜一下vivo拿下了2022年一季度国内手机市场份额第一名,尤其是在整个手机市场下滑的情况下,取得这样的成绩还是不容易的。

按分析人士所说,而vivo能拿第一名的原因无外乎两点:深厚的技术积累和得当的市场战略。对于新技术的研发和应用,vivo一直有着敏锐的嗅觉,将这些技术整理并率先投放到市场。而其清晰的市场战略,跟技术研发配合的也是相得益彰,让vivo摆脱了之前线下机高溢价的印象,在线上线下都有比较出色的产品。其在芯片领域的 探索 也是如此,除了首发独显芯片,跟手机SoC厂商深度定制之外,vivo还在其X系列手机上推出了自研芯片V1以及升级版的V1+ 那么这个自研芯片到底有何用途,vivo自研它的用意又是为何呢

首先V1芯片是一颗ISP芯片,ISP的全称是Image Signal Processor,图像信号处理器。 它的作用通俗来说就是对摄像头拍摄的图像数据进行处理,让数字图像呈现的效果尽可能美化。这里我们要先科普一下手机拍照的原理,首先,光线通过镜头进入相机模组内部,经过通过镜头过滤掉红外光,然后到达CMOS传感器。这个时候,相机的CMOS传感器会将光学信号转换为电信号,再通过内部的模数转换电路转换为数字信号,然后传输给ISP进行加工处理,再经历AI单元的一轮智能成像算法优化后,最终才能生成肉眼可见的或视频文件。

问题来了,镜头和CMOS在将光学信号转化为由0、1、0、1组成的数字信号时可能存在细节上的遗漏和错误,而ISP单元的主要任务就是进行“纠错”、“校验”和“补偿”。这就好比让你用英文翻译一段中文成语或谚语,需要翻译官具备足够的文学素养,才能用英语准确表达出中文语境的博大精深。没错,此时ISP扮演的就是“翻译官”的角色。在实际的手机使用场景中,ISP几乎参与了绝大部分拍照流程,包括拍摄前的对焦以及将光信号转变成电信号,生成照片图像,并在后期提供算力支持等等。另外,ISP与成像质量也有直接关系,它影响着传感器支持的像素,而诸如连拍速度、图像处理速度、色彩、感光度、HDR等等关键性能也均由ISP决定。

ISP虽然不可或缺,但通常都是作为一个模块被集成进手机SoC里的,那么vivo为什么要单独把它做成一颗独立的芯片呢?实际上不止vivo,国内各家手机厂最近两年都在热衷于自研ISP芯片,在vivo之前小米已经率先推出了自研ISO芯片澎湃C1,而在小米之后,OPPO和荣耀(华为)也都发布了各自的ISP芯片。为什么大家都选择ISP作为自研芯片的突破口?

这背后的原因一是 目前拍照功能基本已成为安卓手机对比苹果手机的唯一优势,安卓手机厂商都寄希望于在拍照功能上有更大的突破。 虽然主流SoC芯片内置的ISP模块能够提供出色的性能支持,已经可以满足大部分场景需求,但实际上也有不少局限性。手机厂商只能根据集成在SoC芯片里的ISP模块特性进行适配和调整,有一定的局限性。另外由于SoC芯片的升级规律限制,ISP模块更新频率并不会很高,无法掌握具体的升级规律等,手机厂商对ISP的可控度非常低。而手机厂商通过自研ISP芯片,就能够有效解决上面提到的问题。自主设计ISP芯片,可根据手机产品具体需求实现更有针对性的定制,充分发挥手机影像系统实力,更容易实现影像系统突破。并且不用担心不同SoC平台之间ISP模块差异,换个SoC平台同样很容易就能保证成像质量。

二是手机SoC芯片通常会集成CPU、GPU、NPU、ISP、通信基带等模块,做SoC芯片的门槛很高,不是谁都能做到海思那样,小米澎湃S1就是一个反例。 而自研ISP芯片相对来说没这么复杂,不需要涉及到那么多技术层面,从ISP芯片开始自然是一个更优的选择。 手机厂商自研ISP芯片,入门相对简单,也很容易让用户感受到自研芯片带来的好处,这种投入能以相对较快的速度产生回报,还能够在趋于同质化的配置中拿出独有优势,增加在高端市场的筹码,对于争夺高端手机市场尤为重要。

再说回vivo这颗自研芯片,第一代V1芯片能够支持实时黑光夜视功能,通过取景器即可看到成片效果的亮度,并支持手动调节曝光强度,实现在夜景下自由创作。相比纯软件方式的功耗减少50%,有助于在夜景视频中创造更为出众的表现。而第二代自研芯片V1+既是专业影像芯片,又是显示性能芯片。 V1+不仅用于视频、照片拍摄之类的影像处理,还能应用于 游戏 插帧,所以理论上这是一颗ISP+MEMC芯片。 根据实际测试的结果,X80系统手机不仅拍照效果延续了前系产品的良好效果, 游戏 帧率和功耗的表现也很出色,这些都让X80系列手机不仅是拍照旗舰,更可以成为全能旗舰。

而对于自研芯片的研发过程,据vivo表示,为了研发V1芯片, vivo投入了超300人的研发人员,并且研发耗时24个月。不过,芯片研发并非手机厂商的强项, vivo 自己的资源主要布局在算法、IP转化和芯片架构的设计上,IC线路设计、流片、生产等流程上会交托给合作伙伴,双方利用各自的专业和优势,合理分工协作。

可能很多小伙伴会质疑这种合作开发的产品还能叫自研吗?这里需要说一下芯片研发是一个复杂漫长的过程,尤其是在SoC领域,很少有哪个公司能够完全自己把各个模块全部自研实现,很多IP需要从第三方购买。因此对芯片设计来说,前期的算法和架构设计更为重要,在算法和架构设计基本确定的情况下,剩下的线路设计(物理实现)、流片、生产等环节就类似于委外加工一样。 因此只要自主掌握了算法和架构,就可以说掌握了这颗芯片的核心,也就可以说是自研。

而芯片的物理实现和生产制造需要更多的工程经验,由专业的合作方来负责效率更高。业界有一些公司会专门提供这种芯片设计和生产的服务,可以帮助这种跨界造芯的厂商更快实现从算法设计到芯片量产。

此前vivo称,V1芯片是与某SoC大厂开展深度合作而完成。而外界大都认为vivo口中的“某SoC大厂”很可能就是三星。毕竟vivo曾经与三星在处理器芯片上深度定制。 然而根据一些行业自媒体的透露,vivo自研芯片的“幕后操刀者”可能并非三星,而是一家因太过低调而显得神秘的老牌面板驱动芯片大厂——Novatek 联咏 科技

联咏 科技 总部位于中国台湾地区,于1997年5月成立,原为联华电子设计部门之一的商用产品事业部。从2003年起,联咏先后在中国大陆、日本等地成立子公司。联咏 科技 初期主要产品为电脑周边芯片组,曾是键盘与鼠标控制器的全球最大供货商。1999年决心跨足面板驱动芯片市场,2000年后转向液晶面板驱动芯片及系统单芯片。 目前已成为全球平面显示屏幕驱动芯片的领导厂商。

根据iSuppli数据显示,2007年联咏在大尺寸液晶平面显示器驱动芯片全球市场占有率 22%,排名全球第一。2008 依 GSA 排行,联咏年营收排行全球第十一大芯片设计公司。2015年成功跻身全球前十大芯片设计公司,排名第十。 到了2021年,联咏合并营业收入净额为新台币135366亿元,年增长693%,创 历史 新高,首度突破千亿元关卡,成功成为全球第六大芯片设计公司,也是台湾地区仅次于联发科的第二大芯片设计公司。

vivo跟联咏合作,多少还是让人有些意外,毕竟联咏的强项是显示驱动芯片(设计和制造流程跟数字SoC芯片差别巨大)。但考虑到显示驱动芯片的重要作用——每块手机屏幕至少要配备一颗,以及之前报出的缺货涨价等新闻,或许vivo与联咏的合作不只是基于自研芯片的开发,更是考虑到显示驱动芯片的供应(纯属瞎猜)。

不积跬步,无以至千里。不管怎么说,vivo正在自主造芯的路上一步步前行,希望以后能看到更多自研甚至自造的国产芯片出现在国产手机里。

(PS: 显示驱动芯片是一个巨大的市场,台湾十大芯片设计公司有一半以上都涉足此业务,而在中国大陆也有很多公司投入到这个领域,但跟台湾公司相比仍有较大差距,后续可以专门聊一聊显示驱动芯片的制作为什么这么难。)

做芯片设计需要一定的编程基础,但并不需要掌握所有编程语言和技能。

在芯片设计中,通常需要使用专门的设计工具和编程语言,比如硬件描述语言(HDL)和Verilog语言等

用于描述芯片电路的逻辑和功能。

对于芯片设计工程师来说,掌握基本的编程思想和技能是非常有帮助的,

比如掌握面向对象的编程思想、掌握数据结构和算法等。

这些能力可以帮助芯片设计工程师更好地理解芯片电路的逻辑和功能,并在设计过程中处理复杂的问题。

另外,还需要了解计算机系统的基本知识,比如数字电路和计算机组成原理等,

以便更好地理解和设计芯片电路。因此,虽然编程不是做芯片设计的唯一技能,

但掌握一些编程基础知识对于芯片设计工程师来说是非常重要的。

欢迎分享,转载请注明来源:浪漫分享网

原文地址:https://hunlipic.com/qinggan/7924248.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-09-07
下一篇2023-09-07

发表评论

登录后才能评论

评论列表(0条)

    保存