我花了13999买了人生第一台AIPC把你想知道的全测了

日期:2024-10-03 19:47 | 人气:

  前端时间把我的手机,从小米的MixFold2,换成了搭载骁龙8 Gen3的小米14 Ultra。

  再加上我一直想把我那个破天选2的游戏本现在干一天活就死3次,跑个啥都崩,所以我就诞生了想换一个笔记本,换一台AIPC的念头。

  我在网上搜刮了很久,看了一圈的评测,最后选了当时还没开售的联想YOGA Pro 16s AI元启。

  毕竟我要的是一个轻薄的全能本,既能在国内跑AI、有专属AI助手、还能做设计、还能打游戏,续航还高背着不重的。所以对CPU、软件、屏幕、重量等等都还有挺高要求的。

  在5月20号那天早上,他们10点08开售的那一瞬间,我就进去,花了13999,抢了一台我人生中的第一台AIPC。

  速度贼快,第二天也就是5月21号的早上,这台心心念念的的电脑就放在了我的家门口,吹爆京东的配送速度。

  有一说一,这个屏幕是线Hz刷新率,色彩极好,还能180度翻折,还有触控。

  不过说实话,我也不是很懂硬件,具体的硬件跑分啥的交给硬件区的博主吧,我就放个图给大家简单看下。

  软件:因为众所周知的原因,Windows的Copilot在国内是没法用的。所以至少需要提供一个基于你们厂家的优化版集成式AI来当你的智能体助理。

  硬件:搭载英特尔的Ultra系列芯片。毕竟这里面塞了NPU,专为AI新增的处理单元,这个Ultra里塞了CPU+GPU(集显)+NPU三个单元,这是硬件最大的不同。

  用通俗的话说就是,能让你低功耗、低要求地直接做一些AI推理加速,而不用每次都召唤4060这种高功耗的独显去跑。降低功耗、降低散热、降低重量,这几点还是非常非常重要的。毕竟,我要买的是一个能随身背着跟着我各地出差的笔记本,而不是一个台式机。

  所以,再深度用了三天之后,我决定来写一篇评测文章,好好聊聊他们的AI功能。

  国内的windows电脑,是没办法直接用微软的Copilot的,而且Windows Copilot也不是端侧大模型,全部是接的GPT4o云端推理,这个肯定是不行的。

  而联想的YOGA Pro 16s AI元启,自带了一个AI的综合体,专属助理联想小天。

  本质上,就是一个内置的AI应用,里面集成了大模型和和各种应用,是一个非常典型的智能体助理的定位。

  云端的大模型参数,肯定是要比本地大很多的,但是我翻了很多资料,并没有看到具体的模型数据,只知道是联想自己的天禧大模型。

  我自己测下来,体感上感觉端侧应该是一个几B左右能到GPT3.5左右水平的小模型,云端是一个GPT3.5~GPT4之间水平的大模型。

  这个端侧模型是直接用CPU跑的,而且功耗很低,大模型常驻在后台,大概只吃4G左右的内存,在推理的时候,也不怎么吃CPU。

  其实坦率讲,在很多的时候,比如写写合同,写写邮件,搞搞总结等等的场景下,约等于GPT3.5水平的端侧大模型,已经完全够用了。

  然后在AIPC的场景下,其实我们很看跟系统的集成,一个优秀的智能体助理,其实应该是能调用系统的各项能力的。

  联想小天集成了很多,但是我觉得还是初期,还不够。现在能达到的水平是,用自然语言调用一些联想系统的级别的应用,以及修改基本的设置项,比如看硬件配置,开启护眼模式,下APP等等。

  但是其实在我的心中,一个优秀完美的智能体助理,应该具备一些复杂的系统级别的任务拆解以及调用能力。

  比如我说:把我视频格式的默认应用全部调整成腾讯视频。理论上它可以直接在系统层面帮我调整完,而不是给我打开一个入口,还需要我自己去手动调整。

  当然,还有我预期的更复杂的场景,比如我说:我想看今晚更新的最新的庆余年2。理论上他会打开腾讯视频,打开庆余年2,自动定位到今晚更新的集数上,但是这种需要跟腾讯视频这种第三方接口打通,我觉得...就...还是想一想就算了。

  举个例子,我朋友是做HR的,手上一堆公司内部规定和章程,她自己也天天记不住,也不敢扔到大模型上,每次都是别人问她以后她先查,如果有端侧大模型,其实就方便很多了。

  再比如我,我自己有一份文件,里面都是我自己各种公司资料和各种密码,还有一堆比如我自己的敏感信息、身份证号、啥的,这个文件是我的命根子,要是泄露出去可能就炸了。

  但是我经常需要跟别人签各种合同、写邮件、对接入库、发工资,还有一堆乱七八糟的琐事,需要极度频繁的用到这些信息。而AI其实可以大大的帮我减轻这些工作量的,比如直接跟我的信息和银行卡号,给对面发个打款邮件。但是我肯定不敢把这些信息传给ChatGPT或者Kimi之类的,所以每次我都是直接生成一个模板,然后我去手动填。

  再比如我还有一个我自己的比较详细的介绍文档,里面有很多跟其他公司合作的一些核心数据,这个肯定不敢传云端的,但是我在端侧,就敢随便问答了。比如以前经常有人问我:方便简单给一下您的介绍吗?现在我就敢直接把这个文档扔进去然后直接生成。

  因为我自己理解的知识库,是把文件传上去之后,就可以不用管了,直接在对话里面提问题就行。

  但是联想小天现在还需要先进知识库,勾选文件后进行提问,而且一次最多有3个文件的限制。

  我觉得端侧模型这个方向肯定是没问题,但是这个产品的交互体验设计,还需要迭代优化。

  直接用大模型搜本地文件,还是一个挺刚需的功能的,因为有一说一,过往的文件搜索,实在太难用了,而且我自己的管理习惯其实不是很好,经常各种文件散落在各地,所以大模型加持下的AI搜索,还是一个我挺期待的功能的。

  可以看到还是做了一些AI加持的,有语义理解了。我搜的虽然是公司营业执照,但是把银行证明、公司资料啥的都搜出来了,不过那个公司法还是略有一点抽象。

  在文本端还不错,但是一旦搜一些多模态的内容,比如图片、音频、视频,效果目前就还有点一般,经常会不准。

  除了上面的一些我比较关心的重点功能外,其他的跟AI的结合都是一些工具属性。

  比如跟AIPPT合作,可以在电脑上直接调用AIPPT的能力,用文件直接生成大纲,然后挑选模板生成PPT。

  比如有一个打电话的功能,可以跟一个拟人化的小天直接语音对话,说实话,音色和情绪居然意外的不错,聊起来还挺关心我。

  在日常浏览各种文字的时候,选中后也会直接出小天的菜单,可以直接用大模型进行提问、润色、总结等等,这个还挺好用的。

  总体来说,联想这个AIPC的智能体助理联想小天还是OK的,跟系统有一些结合,也能在端侧处理一些工作事务,但是因为模型本身还是个非多模态能力的模型,跟用GPT4o当基座的微软肯定还是比不了,但是这毕竟是中国,GPT4o那套也没法用。

  我们现在有了Ultra9,所以也可以给大家看一下,这个专为AI打造的CPU,跑本地大模型的速度,再对比一下4060跑的速度。

  我直接下了LM studio,一个给小白用的专门拿来部署本地模型的产品。嗯,很适合我。毕竟专业的测试环境不是我这种非专业用户能搞的。所以就看看大众化的东西~

  先看Ultra9直接跑本地大模型的效果。我直接把我的4060显卡给禁用了。

  千问的推理速度大概是这样的,我录了个屏,可以感受下。CPU的占用率直接干到了100%。

  比我之前的电脑快,之前的电脑每秒2个Token的蹦,这个从比例上来说提升了将近60%,但是绝对值太低了,也没有快很多。

  再对比一下联想小天的推理速度,只能说还是挺看优化的,自己家的产品果然体验还是好。

  毕竟你要说算力,CPU+NPU的算力显然远远不如GPU, 但是NPU的功耗非常低。同等功耗情况下,那GPU的算力肯定是赶不上NPU的,所以配一个NPU, 用极低的功耗换取一个差不多的性能, 承担日常的AI计算,比如图片视频处理等等。

  目前这个产品还比较简单,只有一个模型,有一些预设的风格,支持ControlNET进行一些绘图的可控性。

  在生成速度方面,1:1的图,分辨率是512*512px,1张图在5s左右。

  但是对于一些不懂SD的小白来说,用起来还是非常方便的,生成的质量是OK的,不用搞WebUI那一套,说实话,那套东西,还是有一些学习成本的。

  有一个很好玩的点是可以直接在这个产品上用十几张图本地就能训练一个LoRA模型。我就直接传了12张图上去,训了一个LoRA。

  不过,对于一些专业玩家来说,我相信大家更关注的是SD在本地跑的时间。不过CPU的加强对SD基本没啥用,所以跑图基本还是会用独显来跑,这台笔记本是4060。

  但是在我做一些专业性的工作,比如C4D的渲染、剪映的抠像时,速度还是比之前高了很多,而且我看占用,基本全靠NPU。

  因为我对屏幕要求很高,还有便携重量等等,所以你们如果想买AIPC的话,也可以根据自己的需求来,不用直接抄,毕竟价格差距还挺大的。

  “大模型,必须进终端,必须直接集成在手机、电脑、智能穿戴这些消费电子的设备终端里,它才能叫真正的AI”

  不要觉得那些大模型厂商都是慈善家,就像我前天发的文章说的一样,他们一定是会用大家的对话和数据进行训练的。

  而说实话,我们本身有太多太多敏感的信息了,而这些敏感信息其实很多时候是能提高工作效率的。

  就像我上面的例子,因为我自己开公司,就我一人,所以很多时候一些乱七八糟的文件和合同是得我自己处理的。我很想把我公司的所有信息、我的所有信息,比如公司的经营范围、银行卡号、密码、我的身份证号、住址等等,都扔给AI,这样就每次就可以直接生成一份完整的材料,而不是生成一个模板,我自己再去手改。

  但是,你觉得,我敢把这些敏感信息,扔给任何一个AI吗?ChatGPT?Claude?文心一言?通义千问?你觉得我敢吗?换做你,你敢吗?

  比如我的程序员朋友,手上一堆的代码规范文档,明明可以让AI进行辅助工作,但是苦于安全隐私问题,根本不敢扔进去。上一个敢扔进去的老哥,他们公司的源代码都已经可以直接在ChatGPT上调出来了。

  所以,我们真的需要端侧模型,需要能在本地直接跑的,安全的能保护隐私的大模型,而且这个端侧模型,还能跟系统深度集成。

  我不知道,未来的AIPC,或者更挑明一点的说,未来国内的AIPC,发展速度和更新换代的速度有多快。

  原标题:《我花了13999买了人生第一台AIPC,然后把你想知道的全测了》杏宇平台

网站地图

旋转小火锅定制流程

免费咨询

提供图纸

免费设计

免费报价

无忧安装

终身维护