每日經(jīng)濟(jì)新聞 2025-06-10 07:56:18
每經(jīng)記者|蔡鼎 每經(jīng)編輯|高涵
|2025年6月10日 星期二|
NO.1 蘋(píng)果WWDC:AI加持的Siri尚需時(shí)日,但向開(kāi)發(fā)者開(kāi)放基礎(chǔ)模型
蘋(píng)果在北京時(shí)間今日凌晨舉行的WWDC上宣布了Apple Intelligence的一系列新功能,并向開(kāi)發(fā)者開(kāi)放蘋(píng)果的基礎(chǔ)模型。蘋(píng)果此次推出全新的軟件界面設(shè)計(jì)“液態(tài)玻璃”,應(yīng)用于iPhone等旗下多種硬件設(shè)備的操作系統(tǒng),iPhone迎來(lái)2013年來(lái)首次OS設(shè)計(jì)更新。同時(shí),蘋(píng)果簡(jiǎn)化了軟件版本命名方式,改以年份命名。另外,蘋(píng)果的軟件工程高級(jí)副總裁Craig Federighi承認(rèn),Siri的AI升級(jí)功能短期內(nèi)不會(huì)推出。
點(diǎn)評(píng):Apple Intelligence新功能與基礎(chǔ)模型開(kāi)放彰顯其AI雄心,全新“液態(tài)玻璃”界面設(shè)計(jì)為iPhone等設(shè)備帶來(lái)煥新體驗(yàn)。
NO.2 Google旗艦AI視頻生成工具Veo 3 FAST/TURBO模式上線
Google近日為其旗艦AI視頻生成工具Veo3推出全新FAST/TURBO模式,以更低的成本、更快的生成速度和帶聲音的視頻輸出,引起業(yè)界熱議。Veo3的FAST/TURBO模式以其驚艷的性?xún)r(jià)比成為焦點(diǎn)。相比標(biāo)準(zhǔn)模式每段視頻耗費(fèi)150積分,F(xiàn)AST模式僅需20積分,成本降低了80%。對(duì)于訂閱Google AI Ultra計(jì)劃(每月249.99美元)的用戶(hù)而言,這意味著每月可生成高達(dá)625段8秒視頻,而標(biāo)準(zhǔn)模式僅支持125段。
點(diǎn)評(píng):Google通過(guò)大幅降低成本和提升生成速度,進(jìn)一步推動(dòng)了AI視頻生成技術(shù)的商業(yè)化應(yīng)用,為內(nèi)容創(chuàng)作領(lǐng)域帶來(lái)了新的變革,同時(shí)也加劇了市場(chǎng)競(jìng)爭(zhēng)。
NO.3 亞馬遜擬在賓夕法尼亞州投資200億美元用于AI和云計(jì)算
亞馬遜6月9日宣布,計(jì)劃在賓夕法尼亞州投資至少200億美元,擴(kuò)建其數(shù)據(jù)中心基礎(chǔ)設(shè)施,以支持AI和云計(jì)算技術(shù)。這項(xiàng)重大投資預(yù)計(jì)將創(chuàng)造至少1250個(gè)新的高技能職位,并支持亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)數(shù)據(jù)中心供應(yīng)鏈中的數(shù)千個(gè)其他工作崗位。AWS全球數(shù)據(jù)中心副總裁凱文?米勒透露,公司還將在費(fèi)城以北新建一處數(shù)據(jù)中心園區(qū)。
點(diǎn)評(píng):亞馬遜200億美元投資擴(kuò)建數(shù)據(jù)中心,彰顯其對(duì)AI和云計(jì)算前景的信心,有望提升公司長(zhǎng)期競(jìng)爭(zhēng)力和盈利能力。
NO.4 Neuralink和Grok合作,腦機(jī)芯片讓漸凍癥患者重新“發(fā)聲”
馬斯克當(dāng)?shù)貢r(shí)間9日在 X 上轉(zhuǎn)發(fā)的一則案例顯示:Neuralink和Grok正合作使?jié)u凍癥患者重新“發(fā)聲”。視頻內(nèi)容顯示,Neuralink為一名漸凍癥患者植入腦機(jī)接口芯片,使其可以通過(guò)意念移動(dòng)光標(biāo)輸出文字,而后人工智能聊天機(jī)器人Grok 會(huì)補(bǔ)全其語(yǔ)句,并創(chuàng)建一個(gè)精確的聲音克隆,從而為患者發(fā)聲。
點(diǎn)評(píng):這一案例展示了腦機(jī)接口與人工智能技術(shù)結(jié)合的巨大潛力,為醫(yī)療領(lǐng)域帶來(lái)了新的希望,也為未來(lái)人機(jī)交互方式提供了新的思路。
NO.5 OpenAI升級(jí)ChatGPT語(yǔ)音模式,對(duì)話更自然
OpenAI 在去年推出的 GPT-4o 基礎(chǔ)上,再次對(duì)其高級(jí)語(yǔ)音模式進(jìn)行了重大的更新,使得語(yǔ)音交流變得更加自然和貼近人類(lèi)的對(duì)話方式。這一先進(jìn)的功能依托于原生的多模態(tài)模型,能夠快速響應(yīng)音頻輸入,最快在232毫秒內(nèi)作出反應(yīng),平均響應(yīng)時(shí)間為320毫秒,幾乎與人類(lèi)的對(duì)話速度不相上下。此次的重大升級(jí),是使語(yǔ)音回復(fù)的語(yǔ)調(diào)變得更加細(xì)膩、節(jié)奏更加自然,尤其是在停頓和強(qiáng)調(diào)的處理上,顯得更加生動(dòng)。
點(diǎn)評(píng):OpenAI的語(yǔ)音功能升級(jí)進(jìn)一步提升了AI與人類(lèi)交流的自然度,標(biāo)志著AI在多模態(tài)交互領(lǐng)域的進(jìn)步,為語(yǔ)音助手等應(yīng)用場(chǎng)景帶來(lái)了更優(yōu)質(zhì)的用戶(hù)體驗(yàn)。
免責(zé)聲明:本文內(nèi)容與數(shù)據(jù)僅供參考,不構(gòu)成投資建議,使用前請(qǐng)核實(shí)。據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。
如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關(guān)注每日經(jīng)濟(jì)新聞APP