機械社區(qū)
標題: DeepMind果蠅登Nature,AI開始搶仿真的活啦 [打印本頁]
作者: bravo090 時間: 2025-4-25 14:24
標題: DeepMind果蠅登Nature,AI開始搶仿真的活啦
本帖最后由 bravo090 于 2025-4-25 14:25 編輯
AI開始搶仿真的活啦。。。。
https://www.36kr.com/p/3264911716106375
研究人員在MuJoCo中加入了新的功能:模擬翅膀扇動時與空氣的流體相互作用。
他們還設(shè)計了黏附執(zhí)行器,用來模仿果蠅腳部與地面接觸時的抓握力。
這些改進讓虛擬果蠅不僅能站在地面上,還能像真實果蠅一樣飛起來。
這個數(shù)字果蠅看起來就像一只真正的果蠅:橙色的身體、透明的翅膀,還有那對標志性的紅色大眼睛。
有了逼真的身體模型,下一步就是讓果蠅學(xué)會運動。研究團隊訓(xùn)練了一個人工神經(jīng)網(wǎng)絡(luò)。
他們收集了大量真實果蠅行為的視頻,比如果蠅如何行走、如何起飛、如何調(diào)整方向。
通過深度強化學(xué)習(xí)和模仿學(xué)習(xí),神經(jīng)網(wǎng)絡(luò)逐漸掌握了果蠅的運動模式。
在模擬中,虛擬果蠅展現(xiàn)出了驚艷的真實感。
它能沿著復(fù)雜的自然飛行軌跡移動,比如研究人員設(shè)置的藍色軌跡點,果蠅會精準地跟隨這些點飛行,翅膀拍動的頻率和角度都與真實果蠅無異。
它甚至能模仿真實果蠅的視覺導(dǎo)航能力。虛擬果蠅能看到周圍的環(huán)境,并根據(jù)視覺信息調(diào)整自己的行為。
為了讓更多研究人員受益,谷歌DeepMind和HHMI Janelia研究所決定將這個果蠅模型開源。他們不僅發(fā)布了模型的代碼,還提供了詳細的技術(shù)文檔。
作者: 學(xué)者11 時間: 2025-4-25 15:07
你們什么時候能分清楚什么叫仿真,什么叫模擬。
作者: hxglty 時間: 2025-4-25 16:05
即使這樣也不代表讓一個小白就可以接手,因為這個行業(yè)還是需要很多經(jīng)驗和基礎(chǔ)知識,沒有這些前提,自己對結(jié)果的對錯都沒把握
作者: xmlawla 時間: 2025-4-28 13:06
一群高手,學(xué)習(xí)了
作者: warmth102 時間: 2025-6-7 23:17
AI連設(shè)計都不能搞定,談什么搞定仿真
作者: 快樂星球小王 時間: 2025-6-7 23:29
有沒有大佬帶帶新手
歡迎光臨 機械社區(qū) (http://www.xa-space.com/) |
Powered by Discuz! X3.5 |