【財(cái)新網(wǎng)】
經(jīng)過(guò)雙方數(shù)月?tīng)?zhēng)執(zhí)后,當(dāng)?shù)貢r(shí)間8月30日,南美最大經(jīng)濟(jì)體巴西的最高法院裁定,全面暫停社交媒體平臺(tái)X在該國(guó)的服務(wù)。目前,巴西境內(nèi)已無(wú)法通過(guò)網(wǎng)絡(luò)和應(yīng)用程序訪問(wèn)X。根據(jù)巴西最高法院文件,巴西國(guó)家電信局(Anatel)被要求在24小時(shí)內(nèi),立即暫停社交媒體平臺(tái)X在巴西境內(nèi)的運(yùn)營(yíng),并通知各電信運(yùn)營(yíng)商執(zhí)行相關(guān)禁令。后者于當(dāng)?shù)貢r(shí)間8月31日0時(shí)開(kāi)始執(zhí)行這一措施。
MiniMax發(fā)布新型線性模型架構(gòu)
8月31日,AI初創(chuàng)公司MiniMax在“2024 MiniMax Link伙伴日”上,發(fā)布了基于MOE(混合專家)+ Linear Attention的新一代模型技術(shù)。MiniMax表示,通過(guò)此新型線性模型架構(gòu),MiniMax大模型能在單位時(shí)間內(nèi)更加高效地訓(xùn)練海量數(shù)據(jù)。相較GPT-4o同一代模型,該模型處理10萬(wàn)token(字符)時(shí)效率可提升2—3倍,并且隨著長(zhǎng)度越長(zhǎng),提升越明顯;相比于通用Transformer架構(gòu),新架構(gòu)的原生線性計(jì)算復(fù)雜度大幅減少了大模型的訓(xùn)練和推理成本;在128K的序列長(zhǎng)度下,新架構(gòu)成本減少90%以上。MiniMax還在同日宣布推出視頻模型。