辰小序提示您:看后求收藏(新笔趣阁www.xbqg5200.com),接着再看更方便。
();
纪弘从最开始的时候就知道,现有的硬件架构利用模拟手段进行【关键位决策】能力的支持,是有非常大的性能损失的。
但,企业初创,资金缺乏,不得已才采取的这样的方式,饶是如此,对付现在的这些大模型,类思维也已经占尽优势了。
那个时候,启动新型芯片研发的时机并不成熟,也没有必要。
但是现在,纽约大学(NYU)发现的这种基于【元学习】的MLC训练法,成功的训练出了具有【类人泛化能力】的人工智能模型。
而微软更是瞄准了这个时机,一举拿下了纽约大学的这个团队。
国外的企业,确切的说是微软这个敌人,它在进步——即便这依然还是算力堆积的手段,但算力堆积的效率却提高了不少倍。
“敌人在进步啊!”纪弘查阅了无数的公开技术资料以及阿美瑞肯关于【类人泛化能力】的相关报道。
他是试图摸清敌人现在究竟追到了什么程度,仅仅只看他们发的新闻的话,这个进步还是不小的。
以MLC方法训练出的模型,消耗相当于GPT4.0版本60%的算力,在“联想”、“举一反三”、“语言理解”等对比测试中甚至字节超过了GPT4.5的版本。
“这进步还真不小!”纪弘一边赞叹一边做着计划:“看来我这边也要抓紧!”
于是,他迅速的把自己今天得到的思路和方法汇总,并跟公开报道的微软现在的水平做了对比,思考了一番,画了一条横线。