ChatGPT的出现好像又一次给人灌输只有大数据大模型才是人工智能产生突破成果的必由之路。
据华尔街见闻报道,如果粗略合算ChatGPT的总生命周期碳足迹,自2022年11月30日运行60余天来,其制造设备碳排放超过33.41吨,模型训练碳排放超过552吨,运行60天碳排放约为229.2吨;三者相加,ChatGPT上线后的碳排放超过814.61吨。要想从大气中吸收这些二氧化碳,相当于需要栽种超过6.5万棵树。可是如果ChatGPT与人脑同时工作,人脑的能耗仅为机器的0.002%。
难怪ChatGPT的开发者也不得不发布要研究小数据的系统。
作为算法研究人员的使命就是就是让不可能实现的事情变成现实的可行的结果,对复杂系的不可解的问题绕过去实现可解的成果,让需要很长时间才可以算出的问题快速的算出,让大数据的算法变成小数据的算法,这是不以人的意志为转移的客观发展规律!
在人工智能领域靠大数据所产生的应用效果,一定是因为模型本身不够智能所造成的!随着机器智能程度的提高一定会变成小数据的系统。SDL自律学习模型已经告诉我们,小数据的机器学习的训练结果可以产生大数据的效果,小硬件系统通过高维空间平面分类可以超越低维度的大模型的神经网络系统的应用效果!
因此ChatGPT再次掀起大模型大的耗能的竞赛值得深思!