香港中文大學和新加坡國立大學的研究人員,上個月中發表了一項名為 Mind-Video 的 AI 工具,利用一堆小編連名都唔識讀嘅技術 😆,同大家熟悉嘅 Stable Diffusion 文生圖模型,以人類的腦部活動來生成任意幀率的高質素動畫。在語義分類任務方面平均準確度達 85%,比上一代最先進技術高出 45%。
話唔定唔駛幾耐,我哋就會進入「睇到你諗乜嘢」嘅時代。
如果你想睇下生成出嚟嘅動畫效果,可以去研究網站:https://mind-video.com/
香港中文大學和新加坡國立大學的研究人員,上個月中發表了一項名為 Mind-Video 的 AI 工具,利用一堆小編連名都唔識讀嘅技術 😆,同大家熟悉嘅 Stable Diffusion 文生圖模型,以人類的腦部活動來生成任意幀率的高質素動畫。在語義分類任務方面平均準確度達 85%,比上一代最先進技術高出 45%。
話唔定唔駛幾耐,我哋就會進入「睇到你諗乜嘢」嘅時代。
如果你想睇下生成出嚟嘅動畫效果,可以去研究網站:https://mind-video.com/