爆
人工智慧大語言模型(LLM)規模愈趨龐大,OpenAI在二○一九年發表的GPT-2參數量僅十五億,隔年的GPT-3參數量來到一七五○億,去年的GPT-4則被推估有一.八兆參數量,其他科技巨頭也不遑多讓,猶如在進行算力、參數量的軍備競賽。但是,語言模型越大越好嗎?