国产清纯白嫩初高生在线观看,亚洲综合色丁香婷婷六月图片,人人超碰人人爱超碰国产 360doc--doctorwangfovn的文章 http://www.bczicp.cn/rssperson/54183077.aspx 360doc (http://www.bczicp.cn) zh-cn 360doc--個人圖書館 AAAI 2024 | 基于關(guān)系感知異構(gòu)圖Transformer的用于藥物-藥物相互作用預(yù)測的雙通道學習框架 http://www.bczicp.cn/content/24/0902/20/54183077_1132979441.shtml 2024/9/2 20:16:17
AAAI 2024 | 基于關(guān)系感知異構(gòu)圖Transformer的用于藥物-藥物相互作用預(yù)測的雙通道學習框架。關(guān)系感知自注意力計算公式如下:2.3 DDI預(yù)測將兩個藥物的表示拼接并輸入MLP以預(yù)測鏈接預(yù)測分數(shù): 在完成特征提取后,TIGER將兩個藥物的表示拼接并輸入到多層感知器(MLP)中,以預(yù)測鏈接預(yù)測分數(shù)。本文介紹了一種新型的雙通道關(guān)系感知圖轉(zhuǎn)換模型TIGER,旨在預(yù)測藥物-藥物相互作用(DDI)。
論文賞讀 | TGRS | 全色和多光譜圖像融合新方法! 基于像素級集成掩碼自編碼器 http://www.bczicp.cn/content/24/0902/15/54183077_1132959794.shtml 2024/9/2 15:52:35
論文賞讀 | TGRS | 全色和多光譜圖像融合新方法! 基于像素級集成掩碼自編碼器。創(chuàng)新的觀測模型:作者提出了一種新的觀測模型,將LRMS(低分辨率多光譜圖像)視為HRMS(高分辨率多光譜圖像)的像素級掩碼版本,區(qū)別于傳統(tǒng)將LRMS視為HRMS的模糊和降采樣版本的觀點,本文的觀點與真實世界場景更為契合。傳統(tǒng)的觀測模型通常將LRMS視為HRMS的模糊和降采樣版本,而本文提出了一種新的觀測模型,即將LRMS視為HRMS的像素級掩碼版本。
21.5萬張X光,78萬個問題!德州大學NIH等聯(lián)合發(fā)布醫(yī)學視覺問答數(shù)據(jù)集Medical-CXR-VQA http://www.bczicp.cn/content/24/0821/18/54183077_1131954138.shtml 2024/8/21 18:53:04
德州大學NIH等聯(lián)合發(fā)布醫(yī)學視覺問答數(shù)據(jù)集Medical-CXR-VQA.圖1 新數(shù)據(jù)集與現(xiàn)有的數(shù)據(jù)集ImageCLF VQA-MED的問題對比。圖2 Medical-CXR-VQA 問題類型的統(tǒng)計數(shù)據(jù)表1 Medical-CXR-VQA 問題類型示例數(shù)據(jù)集構(gòu)建的方法。作者基于MIMIC-CXR構(gòu)建了Medical-CXR-VQA數(shù)據(jù)集。利用基于LLM的方法,作者創(chuàng)建了一個名為Medical-CXR-VQA的以臨床為驅(qū)動的大規(guī)模醫(yī)學VQA數(shù)據(jù)集,在給定相同的關(guān)鍵詞提取集時將數(shù)據(jù)集構(gòu)建的準確性提高了62%。
FlashGS: 用于大規(guī)模和高分辨率渲染的高效3D高斯?jié)姙R http://www.bczicp.cn/content/24/0820/17/54183077_1131857787.shtml 2024/8/20 17:09:36
FlashGS: 用于大規(guī)模和高分辨率渲染的高效3D高斯?jié)姙R。論文 FlashGS: Efficient 3D Gaussian Splatting for Large-scale and High-resolution Rendering 探討了FlashGS,一種專為大規(guī)模和高分辨率渲染設(shè)計的高效3D高斯?jié)姙R(3D Gaussian Splatting)算法和實現(xiàn)框架。論文對FlashGS的性能進行了廣泛的評估。通過以上優(yōu)化,F(xiàn)lashGS不僅成功解決了3DGS在大規(guī)模和高分辨率場景中的性能瓶頸問題,還將其推向了實際應(yīng)用的前沿。
CountGD:多模態(tài)開放世界計數(shù)方法 http://www.bczicp.cn/content/24/0817/08/54183077_1131572592.shtml 2024/8/17 8:20:01
在特征增強器fφ中,視覺示例標記和文本標記通過自注意力和交叉注意力與圖像特征融合,產(chǎn)生融合的視覺示例和文本特征zv,t以及新的圖像特征zI。視覺示例嵌入:將視覺示例作為文本標記處理,通過自注意力機制將視覺示例與文本標記融合,然后通過交叉注意力機制與圖像交互。視覺示例提供更多信息:在FSC-147數(shù)據(jù)集上,視覺示例提供的信息比文本更多,因此僅使用視覺示例的性能顯著優(yōu)于僅使用文本的性能。
北大計算機學院登國際AI頂刊!張銘教授團隊160萬數(shù)據(jù)訓練生物活性基礎(chǔ)模型,加速癌癥藥物研發(fā) http://www.bczicp.cn/content/24/0815/22/54183077_1131470979.shtml 2024/8/15 22:13:59
張銘教授團隊160萬數(shù)據(jù)訓練生物活性基礎(chǔ)模型,加速癌癥藥物研發(fā)。論文鏈接 https://www.nature.com/articles/s42256-024-00876-w分享鏈接:https://rdcu.be/dQUavActFound的訓練數(shù)據(jù)、代碼、模型已開源:https://github.com/BFeng14/ActFoundActFound的核心思想是采用成對學習方法,學習同一組實驗中兩個小分子之間的相對生物活性差異,從而避開不同實驗之間的生物活性的不兼容問題。
推理爆拉SOTA 2000倍!FSGS:稀疏視角的實時高仿真圖像合成框架(ECCV'24) http://www.bczicp.cn/content/24/0813/17/54183077_1131287610.shtml 2024/8/13 17:50:05
該方法通過在現(xiàn)有高斯之間插入新高斯來增強高斯表示,基于鄰近性得分進行戰(zhàn)略性放置,結(jié)合從現(xiàn)有高斯中獲取的觀測初始化,大大改善了場景表示,提高了高斯密度。該方法通過評估現(xiàn)有高斯之間的鄰近性并在最具代表性的區(qū)域放置新的高斯,從而密集化高斯并填充空白區(qū)域,增強了場景細節(jié)?;卩徑缘母咚菇獬?。具體來說,我們將起始高斯稱為“源”高斯,而將尾部的高斯稱為“目標”高斯,這是“源”高斯的K個鄰居之一。
RealDex:實現(xiàn)類似人類的機器人靈巧手抓握 http://www.bczicp.cn/content/24/0811/10/54183077_1131091049.shtml 2024/8/11 10:57:38
RealDex:實現(xiàn)類似人類的機器人靈巧手抓握文章來源:https://arxiv.org/abs/2402.13853封面來源:https://arxiv.org/abs/2402.13853溫馨提示:掃描下方二維碼,加入知識星球,免費下載700 行業(yè)報告和100頁PPT原創(chuàng)報告《全球人形機器人產(chǎn)品數(shù)據(jù)庫》RealDex 提供了大量逼真的靈巧手抓握動作,與人類姿勢同步,并反映了典型的人類運動行為。人類行為模式:通過遠程操作系統(tǒng),數(shù)據(jù)集中的抓握動作自然地反映了人類的行為模式。
智譜版Sora開源爆火:狂攬4K Star,4090單卡運行,A6000可微調(diào) http://www.bczicp.cn/content/24/0810/17/54183077_1131042161.shtml 2024/8/10 17:13:17
視頻數(shù)據(jù)通常沒有文本描述,需要轉(zhuǎn)換為文本描述以供文本到視頻模型訓練。智譜 AI 提出了一種從圖像字幕生成視頻字幕的管道,并微調(diào)端到端的視頻字幕模型以獲得更密集的字幕。智譜 AI 已經(jīng)驗證了 scaling law 在視頻生成方面的有效性,未來會在不斷 scale up 數(shù)據(jù)規(guī)模和模型規(guī)模的同時,探究更具突破式創(chuàng)新的新型模型架構(gòu)、更高效地壓縮視頻信息、更充分地融合文本和視頻內(nèi)容。
AMSA-UNet | 基于自注意力的多尺度 U-Net 提升圖像去模糊性能 ! http://www.bczicp.cn/content/24/0801/06/54183077_1130172443.shtml 2024/8/1 6:21:11
AMSA-UNet | 基于自注意力的多尺度 U-Net 提升圖像去模糊性能 !在本文中,提出了一種基于自注意力的非對稱多尺度U-net(AMSA-UNet),該方法結(jié)合了多輸入多輸出網(wǎng)絡(luò)架構(gòu)與 Transformer 模塊,以解決由單尺度U-Net網(wǎng)絡(luò)引起的圖像空間特征丟失問題。不對稱的U-net結(jié)構(gòu)體現(xiàn)在編碼器模塊和解碼器模塊之間的不對稱性。如前一小節(jié)所述,解碼器模塊包含DFFN模塊和FASA模塊,而編碼器模塊僅使用DFFN模塊。
CVPR 最佳論文 | 生成式圖像動態(tài)! http://www.bczicp.cn/content/24/0731/16/54183077_1130137228.shtml 2024/7/31 16:59:08
文章提出了一種對場景運動建模的圖像空間先驗方法。結(jié)合基于圖像的渲染模塊,預(yù)測的運動表示可用于多種下游應(yīng)用,例如將靜態(tài)圖像轉(zhuǎn)換為無縫循環(huán)的視頻,或者使用戶能夠與真實圖像中的物體互動,產(chǎn)生逼真的模擬動力學(通過將頻譜體積解釋為圖像空間模態(tài)基)。圖 1. 為場景運動建立了一個生成圖像空間先驗:從一張 RGB 圖像出發(fā),方法生成一個頻譜體積 [23],這是一種在傅里葉域內(nèi)表示密集、長期像素軌跡的運動表現(xiàn)形式。
清華&北大&上交攜手“重塑機器視覺邊界”,Maniwhere讓機器人無縫適應(yīng)多變世界環(huán)境! http://www.bczicp.cn/content/24/0731/15/54183077_1130129309.shtml 2024/7/31 15:30:42
清華&北大&上交攜手“重塑機器視覺邊界”,Maniwhere讓機器人無縫適應(yīng)多變世界環(huán)境!04-Maniwhere算法應(yīng)用場景04.01-四手指機械手合電腦 04.02-四手指機械手拿取&放置物品 04.03-四足機械手實例泛化 04.04-兩個機械手移交物品 04.05-雙手指機械手拿取&放置 04.06-雙手指機械手打開抽屜 05-Maniwhere算法實現(xiàn)細節(jié)05.01-現(xiàn)實世界硬件配置。07-Maniwhere算法效果展示 圖7.1-Maniwhere算法仿真效果展示。
中科院發(fā)表Table-LLaVA,表格理解大模型,刷新23項SOTA http://www.bczicp.cn/content/24/0730/19/54183077_1130068888.shtml 2024/7/30 19:59:58
先前的表格理解方法依賴于將表格轉(zhuǎn)換為文本序列作為模型輸入,但在某些情況下很難獲得高質(zhì)量的文本表格表示,而表格圖像更易獲取。表格理解問題關(guān)注如何從表格數(shù)據(jù)中自動提取、轉(zhuǎn)換和解釋關(guān)鍵信息,涉及多個任務(wù)如表格問答、表格事實驗證和表格生成。在MMTab的基礎(chǔ)上,作者提出了一個通用的表格MLLM模型Table-LLaVA,實驗結(jié)果表明,Table-LLaVA在多個基準測試中顯著優(yōu)于現(xiàn)有的MLLM模型,并且甚至與強大的GPT-4V相當。
任意尺度超分辨率新方法!GaussianSR:打破傳統(tǒng)離散特征表示能力的限制! http://www.bczicp.cn/content/24/0730/12/54183077_1130036051.shtml 2024/7/30 12:49:09
GaussianSR:打破傳統(tǒng)離散特征表示能力的限制!受三維高斯噴射(3D Gaussian Splatting)技術(shù)最新進展的啟發(fā),提出了GaussianSR[1]:一種基于二維高斯噴射(2D Gaussian Splatting)的新型任意比例超分辨率(ASSR)方法。低分辨率初始化:低分辨率特征初始化包括從輸入的低分辨率圖像中獲取特征,并將其表示為連續(xù)高斯特征場內(nèi)的初始化點。具體來說,低分辨率特征的值用作高斯的初始幅度,而低分辨率特征的坐標確定高斯場的中心。
ECCV`24 | 比DragDiffusion快100倍!RegionDrag:快·準·好的圖像編輯方法!港大&牛津 http://www.bczicp.cn/content/24/0729/16/54183077_1129971276.shtml 2024/7/29 16:27:26
RegionDrag:快.準.好的圖像編輯方法!引入了一種基于區(qū)域的圖像編輯方法,以克服基于點拖拽方法的局限性,利用更豐富的輸入上下文來更好地對齊編輯結(jié)果與用戶的意圖。RegionDrag 允許用戶輸入操作區(qū)和目標區(qū)對,然后通過以下兩個主要步驟進行編輯:復(fù)制操作區(qū)覆蓋的潛在表示,并在反轉(zhuǎn)過程中存儲自注意力特征;本文引入了一個高效且有效的基于區(qū)域的編輯框架——RegionDrag,用于高保真圖像編輯。
全球首篇!調(diào)研近400篇文獻,鵬城實驗室&中大深度解析具身智能 http://www.bczicp.cn/content/24/0729/14/54183077_1129961156.shtml 2024/7/29 14:28:13
主動視覺感知框架5. 具身交互具身交互指的是智能體在物理或模擬空間中與人類和環(huán)境互動的場景。關(guān)于鵬城實驗室多智能體與具身智能研究所隸屬鵬城實驗室的多智能體與具身智能研究所匯聚了數(shù)十名智能科學與機器人領(lǐng)域頂尖青年科學家,依托鵬城云腦、中國算力網(wǎng)等自主可控 AI 基礎(chǔ)設(shè)施,致力于打造多智能體協(xié)同與仿真訓練平臺、云端協(xié)同具身多模態(tài)大模型等通用基礎(chǔ)平臺,賦能工業(yè)互聯(lián)網(wǎng)、社會治理與服務(wù)等重大應(yīng)用需求。
ECCV'24開源 | 塑造SLAM新紀元!6倍加速!LocoTrack:跟蹤一切最新SOTA! http://www.bczicp.cn/content/24/0728/06/54183077_1129853903.shtml 2024/7/28 6:50:28
3DGS、NeRF、結(jié)構(gòu)光、相位偏折術(shù)、機械臂抓取、點云實戰(zhàn)、Open3D、缺陷檢測、BEV感知、Occupancy、Transformer、模型部署、3D目標檢測、深度估計、多傳感器標定、規(guī)劃與控制、無人機仿真、三維視覺C 、三維視覺python、dToF、相機標定、ROS2、機器人控制規(guī)劃、LeGo-LAOM、多模態(tài)融合SLAM、LOAM-SLAM、室內(nèi)室外SLAM、VINS-Fusion、ORB-SLAM3、MVSNet三維重建、colmap、線面結(jié)構(gòu)光、硬件結(jié)構(gòu)光掃描儀,無人機等。
【Mamba 醫(yī)學】創(chuàng)新3D-CBCT牙齒分割:探索T-Mamba的頻率增強門控依賴性 http://www.bczicp.cn/content/24/0728/06/54183077_1129853867.shtml 2024/7/28 6:49:27
【Mamba 醫(yī)學】創(chuàng)新3D-CBCT牙齒分割:探索T-Mamba的頻率增強門控依賴性1 論文題目。· T-Mamba:牙齒3D CBCT分割的頻率增強門控遠程依賴性2 論文摘要。為了解決這個問題,我們提出了T-Mamba,將共享的位置編碼和基于頻率的特征集成到視覺mamba中,以解決空間位置保留和頻域特征增強的局限性。T-Mamba是第一個將基于頻率的特征引入視覺mamba的工作。· https://github.com/isbrycee/T-Mamba計算機視覺最新進展-Sora.
通過多樣的幾何形狀來訓練機器人從仿真到現(xiàn)實轉(zhuǎn)換的裝配技能 http://www.bczicp.cn/content/24/0728/06/54183077_1129853831.shtml 2024/7/28 6:48:25
通過多樣的幾何形狀來訓練機器人從仿真到現(xiàn)實轉(zhuǎn)換的裝配技能。得益于 NVIDIA 在接觸豐富交互的超實時仿真技術(shù)方面的最新進展,現(xiàn)在已經(jīng)可以對機器人裝配任務(wù)(如插入等)進行仿真,詳見通過使用 NVIDIA Isaac 的新型仿真方法推進機器人裝配技術(shù)發(fā)展。后續(xù)關(guān)于機器人裝配從仿真到現(xiàn)實的遷移研究提出了使用強化學習 (RL) 在仿真中解決少量裝配任務(wù)的算法,以及在現(xiàn)實世界中成功部署所學技能的方法。
OMG!12個腹部CT公開數(shù)據(jù)集,肝腎胰脾胃腸腸肚肚全都有 http://www.bczicp.cn/content/24/0726/15/54183077_1129734983.shtml 2024/7/26 15:56:11
數(shù)據(jù)概述:由 10 名女性和 10 名男性的 3D CT 掃描組成,其中 75% 的患者患有肝腫瘤數(shù)據(jù)量:20個CT volume數(shù)據(jù)類型:增強CT分割器官:13個腹部器官下載地址:https://www.ircad.fr/research/data-sets/liver-segmentation-3d-ircadb-01/數(shù)據(jù)量:500個CT volume,100個MRI volume數(shù)據(jù)類型:CT/MRI分割器官:15 個腹部器官下載地址:https://amos22.grand-challenge.org10 Decathlon數(shù)據(jù)集。