?? AGI:Artificial General Intelligence (通用人工智能):是指具備與人類同等或超越人類的智能,能夠表現(xiàn)出正常人類所具有的所有智能行為。又被稱為強人工智能。 ?? AI:Artificial Intellige nce (人工智能):于1956年在Dartmouth學會上提出,是一種技術,通過類似人類反應的方式對刺激做出反應并從中學習。其理解和判斷水平通常僅在人類的專業(yè)技能中找到。AI因其具備自主學習和認知能力,能夠進行自我調(diào)整和改進,從而應對更加復雜的任務。 ?? AIGC:AI Generated Content (生成式AI):又稱為生成式AI,意指由人工智能生成的內(nèi)容。包括AI文字續(xù)寫、文字轉像的AI圖、AI主持人等應用都屬于AIGC。 ?? ANI:Artificial Narrow Intelligence (狹義人工智能):即專注于一項任務的人工智能,例如下圍棋的AlphaGo。又被稱為弱人工智能。 ?? ASI (人工超級智能):盡管存在爭議,ASI通常被定義為超越人類思維能力的人工智能。 ?? Accelerator(加速器):一類旨在加速人工智能應用的微處理器。 ?? Agents(智能體):Agent是一個設定了目標或任務的大型語言模型,可以迭代運行。與大型語言模型(LLM)在工具如ChatGPT中通常被用于回答問題的方式不同,Agent具有復雜的工作流程,模型本質(zhì)上可以自我對話,而無需人類驅(qū)動每一部分的交互。 ?? Alignment(人工智能對齊):指引導人工智能系統(tǒng)的行為,使其符合設計者的利益和預期目標。已對齊的人工智能行為會朝著預期方向發(fā)展,而未對齊的人工智能行為雖然具備特定目標,但此目標并非設計者所預期。 ?? Attention(注意力機制):在深度學習中指的是模型對輸入的不同部分分配不同注意力的機制,有助于處理長距離依賴性。注意力機制有助于模型在生成輸出時專注于輸入的相關部分。 ?? Backpropagation(反向傳播):是一種用于訓練神經(jīng)網(wǎng)絡的算法,通過不斷調(diào)整模型參數(shù)以最小化預測誤差。 ?? Bias(偏見):在機器學習中指的是模型對訓練數(shù)據(jù)的錯誤偏見,可能導致對新數(shù)據(jù)的不準確預測。 ?? CLIP:Contrastive Language-Image Pre-training(對比語言-圖像預訓練):是一種由 OpenAI 提出的模型,用于聯(lián)合處理圖像和文本,使其能夠理解和生成圖像的描述。 ?? CNN:Convolutional Neural Network(卷積神經(jīng)網(wǎng)絡):一種專門用于處理圖像和視頻等網(wǎng)格數(shù)據(jù)的深度學習神經(jīng)網(wǎng)絡。此類模型通常用于圖像識別任務。 ??????? CV:Computer Vision(計算機視覺):是一種讓計算機能夠理解和解釋視覺信息的技術領域。它指的是用攝影機和計算機代替人眼對目標進行識別、跟蹤和測量等機器視覺,并進一步進行圖像處理,使其更適合人眼觀察或傳送給儀器檢測的圖像。 ?? ChatGPT(對話生成預訓練變壓器):由 OpenAI 創(chuàng)建的一種對話型語言模型。于2022年11月推出。該程序使用基于GPT-3.5、GPT-4架構的大型語言模型并以強化學習訓練。 ?? CoT:Chain-of-Thought (思維鏈提示):通過提示LLM生成一系列中間步驟,提高LLM的推理能力。這些中間步驟導致多步驟問題的最終答案。該技術由谷歌研究人員于2022年首次提出。 ??? Compute(計算資源):在上下文中,通常指的是計算機硬件資源,如CPU、GPU或TPU,用于進行計算和執(zhí)行機器學習模型。 ?? Connectionism(聯(lián)結主義):也稱為神經(jīng)網(wǎng)絡或基于學習的AI。主要觀點是,知識存儲在大量連接中,模擬了大腦的神經(jīng)網(wǎng)絡。這種方法依賴于從數(shù)據(jù)中學習和適應,而不是依賴預定義的規(guī)則。連接主義AI的典型例子是深度學習。 ?? Cross-modal Generalization(跨模態(tài)泛化):是一種機器學習能力,指的是模型能從一種模態(tài)(或類型)的數(shù)據(jù)中學習,并將這些學習應用到另一種模態(tài)的數(shù)據(jù)上。 ?? Data Augmentation(數(shù)據(jù)增強):是一種通過對原始訓練數(shù)據(jù)進行隨機變換或擴充的方法,以增加模型的多樣性和泛化能力。通過添加現(xiàn)有數(shù)據(jù)的略微修改的副本來增加用于訓練模型的數(shù)據(jù)量和多樣性的過程。 ?? Deep Learning(深度學習):是一種機器學習的分支,以人工神經(jīng)網(wǎng)絡為架構,對數(shù)據(jù)進行表征學習的算法。深度學習中的形容詞“深度”是指在網(wǎng)絡中使用多層。 ?? DeepMind(深度思維):是一家人工智能研究實驗室,致力于推動人工智能的前沿研究,曾開發(fā)出AlphaGo等領先的人工智能系統(tǒng)。 ?? Diffusion Models(擴散模型):在機器學習中,是一類潛變量模型,用于訓練馬爾可夫鏈。在計算機視覺中,通過學習逆擴散過程訓練神經(jīng)網(wǎng)絡,使其能夠?qū)ΟB加了高斯噪聲的圖像進行去噪。它是DALL-E、Stable Diffusion和Midiourney的基礎模型。 ?? Double Descent(雙降):指機器學習中的一種現(xiàn)象,其中模型性能隨著復雜性的增加而提高,然后變差,然后再次提高。 ?? Embedding(嵌入):在機器學習中,指的是將高維數(shù)據(jù)映射到低維空間的過程,常用于表示詞向量或圖像特征。 ?? Emergence(涌現(xiàn)):是一種現(xiàn)象,許多小實體相互作用后形成了具有小實體不具備特性的大實體。在整合層次和復雜系統(tǒng)理論中,涌現(xiàn)扮演著核心角色。例如,生物學中的生命現(xiàn)象即是化學的一種涌現(xiàn)。 ?? End-to-End Learning(端到端學習):是一種無需手動設計功能的機器學習模型。該模型提供原始數(shù)據(jù),期望從這些輸入中學習。 ?? Expert Systems(專家系統(tǒng)):是一種使用專業(yè)知識和規(guī)則來模擬人類專家決策過程的人工智能系統(tǒng)。 ?? Few-Shot Learning(小樣本學習):旨在從少量樣本中學習解決問題的方法。與小樣本學習相關的概念還包括零樣本學習(在沒有訓練數(shù)據(jù)的情況下利用類別屬性等信息訓練模型,從而識別新類別)。 ??? Fine-Tuning(微調(diào)):是遷移學習的一種常用技術。目標模型在除去輸出層的源模型上進行復制,并在目標數(shù)據(jù)集上微調(diào)這些參數(shù)。在自然語言處理(NLP)中尤為常見。 ?? Fitting(擬合):是在機器學習和統(tǒng)計學中描述或預測數(shù)據(jù)的過程。理想的擬合是模型能夠準確捕捉數(shù)據(jù)的基本結構和模式,同時處理一些隨機的、無法預測的噪聲。 ?? Forward Propagation(前向傳播):在神經(jīng)網(wǎng)絡中,是指輸入數(shù)據(jù)通過每一層(從輸入層到輸出層)產(chǎn)生輸出的過程。網(wǎng)絡對輸入應用權重和偏差,并使用激活函數(shù)生成最終輸出。 ?? Foundation Model(基礎模型):是在廣泛數(shù)據(jù)上訓練的大型AI模型,旨在適應特定任務。 ?? GAN(General Adversarial Network):是一種機器學習模型,通過使兩個神經(jīng)網(wǎng)絡相互對抗(一個生成器創(chuàng)建新數(shù)據(jù),另一個鑒別器試圖將數(shù)據(jù)與真實數(shù)據(jù)區(qū)分開)來生成類似于現(xiàn)有數(shù)據(jù)的新數(shù)據(jù)。 ?? GPT-4(Generative Pre-trained Transformer 4):是由OpenAI公司于2023年3月14日發(fā)布的自回歸語言模型。相較于GPT-3和GPT-3.5模型,在各個方面都有所優(yōu)化。 ?? GPU(Graphics Processing Unit):是一種高性能的專用處理器,常用于加速深度學習和圖形處理任務。 ?? Generalize(廣義化):指將事物的定義修改或補充以使其適用于更大范圍,伴隨著將主體的定義或概念抽象化的過程。 ?? Generalization Ability(泛化能力):是模型對新數(shù)據(jù)的適應和預測能力,是評估模型性能的重要指標之一。 ?? Generative AI(生成式人工智能):是一類能夠生成新的、以前未見的數(shù)據(jù)的人工智能系統(tǒng),如圖像、文本等。 ?? Gradient Descent(梯度下降):是一種通過沿損失函數(shù)梯度的反方向更新模型參數(shù)的優(yōu)化算法,以最小化損失。 ?? Hallucinate(幻覺):在人工智能中,是指模型生成的內(nèi)容不基于實際數(shù)據(jù)或與現(xiàn)實明顯不同的現(xiàn)象。 ??? Hidden Layer(隱藏層):是神經(jīng)網(wǎng)絡中介于輸入層和輸出層之間的層,用于學習輸入數(shù)據(jù)的抽象表示。 ?? Hyperparameter Tuning(超參數(shù)調(diào)整):通過調(diào)整模型的超參數(shù)(如學習率、層數(shù)等)來提高模型性能的優(yōu)化過程。 ?? Inference(推理):在機器學習中指使用經(jīng)過訓練的模型對新數(shù)據(jù)進行預測或分類的過程。 ??? Instruction Tuning(指令調(diào)優(yōu)):在機器學習中指通過調(diào)整模型的指令或策略來改善性能的過程。 ?? Knowledge Distillation(數(shù)據(jù)蒸餾):旨在將原始大數(shù)據(jù)集濃縮成小型數(shù)據(jù)集,使得在小數(shù)據(jù)集上訓練的模型與在原數(shù)據(jù)集上訓練的模型表現(xiàn)相似。這一技術在深度學習中得到廣泛應用,特別是在模型壓縮和模型部署方面。它有助于將復雜模型轉化為更輕量級的版本,促進模型的遷移學習和模型集成,提高模型的魯棒性和泛化能力。 ?? LLM(Large Language Model):是由具有數(shù)十億或更多權重的神經(jīng)網(wǎng)絡組成的語言模型。通過自監(jiān)督學習或半監(jiān)督學習對大量未標記文本進行訓練。 ?? LSTM(Long Short-Term Memory):是一種用于處理序列數(shù)據(jù)的循環(huán)神經(jīng)網(wǎng)絡(RNN)架構。 ?? Latent Space(潛在空間):指模型學到的數(shù)據(jù)的低維表示,其中隱藏了數(shù)據(jù)的關鍵特征。 ?? Loss Function(損失函數(shù)):也稱為成本函數(shù),是機器學習模型在訓練期間試圖最小化的函數(shù),量化了模型預測與真實值的距離。 ?? Machine Learning(機器學習):是人工智能的一個分支,通過機器學習可以解決人工智能中的部分問題。它是實現(xiàn)人工智能的途徑之一,強調(diào)通過學習解決問題。 ?? Mixture of Experts(專家組合):是一種機器學習技術,通過訓練多個專門的子模型(“專家”),并以依賴于輸入的方式組合它們的預測。 ?? Multimodal(模態(tài)):在人工智能中,指可以理解和生成多種類型數(shù)據(jù)(如文本和圖像)信息的模型。 ??? NLP(Natural Language Processing):是人工智能和語言學領域的分支學科,探討如何處理及運用自然語言。NLP包括認知、理解、生成等多方面步驟。 ?? NeRF(Neural Radiance Fields):是一種用于渲染三維場景的神經(jīng)網(wǎng)絡模型。 ?? Neural Network(神經(jīng)網(wǎng)絡):是一種受人腦啟發(fā)的人工智能模型,由連接單元或節(jié)點(神經(jīng)元)組成,用于接受輸入、進行計算并產(chǎn)生輸出。 ?? Objective Function(目標函數(shù)):在機器學習中指用于衡量模型性能的函數(shù),模型的訓練目標是最小化或最大化這個函數(shù)。 ?? OpenAI:是一家人工智能研究實驗室,致力于推動人工智能的前沿研究,創(chuàng)造對人類有益的AI。 ?? Overfitting(過擬合):在機器學習中指模型在訓練數(shù)據(jù)上表現(xiàn)很好,但在未見過的新數(shù)據(jù)上表現(xiàn)差的現(xiàn)象。過度擬合訓練數(shù)據(jù)可能導致模型泛化能力差。 ??? Parameters(參數(shù)):在機器學習模型中,指模型的權重和偏差等可調(diào)整的變量。 ?? Pre-training(預訓練):是一種機器學習的方法,通過在大規(guī)模數(shù)據(jù)上進行初始訓練,然后在特定任務上進行微調(diào)。 ??? Prompt Engineering(提示工程):是一種調(diào)整和優(yōu)化自然語言處理模型輸入提示的方法,以獲得更準確和有針對性的輸出。 ?? RLHF(Reinforcement Learning with Human Feedback):是一種結合強化學習和人類反饋的方法,用于改進模型性能。 ?? RNN(Recurrent Neural Network):是一種用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡結構。 ??? Regularization(正則化):是一種用于減小模型過擬合風險的技術,通過對模型參數(shù)引入額外的懲罰項。 ?? Reinforcement Learning(強化學習):是機器學習的一個領域,強調(diào)如何基于環(huán)境而行動,以取得最大化的預期利益。是除了監(jiān)督學習和非監(jiān)督學習之外的第三種機器學習方法。 ?? Singularity(奇點):在人工智能的背景下,奇點(技術奇點)指的是未來的一個假設時間點,當技術增長變得不可控和不可逆轉時,將導致人類文明發(fā)生不可預見的變化。 ?? Supervised Learning(監(jiān)督學習):是一種機器學習方法,模型通過從有標簽的訓練數(shù)據(jù)中學習,通過最小化預測和實際標簽之間的差異來訓練模型。 ?? Symbolic AI(符號主義):也被稱為基于規(guī)則的AI或邏輯主義。符號主義認為所有知識和推理都可以用符號和規(guī)則來表示。這種方法依賴于明確定義的規(guī)則和符號,通過邏輯推理解決問題。專家系統(tǒng)是符號主義AI的典型例子。 ?? TPU(Tensor Processing Unit):是由谷歌設計的專用硬件,用于高效進行張量運算,特別適用于深度學習任務。 ?? TensorFlow:是由谷歌開發(fā)的開源機器學習框架,用于構建和訓練深度學習模型。 ?? Token(標記):在自然語言處理中,指的是文本中的基本單元,可以是一個單詞、一個字符或一個子詞。 ?? Training Data(訓練數(shù)據(jù)):用于訓練機器學習模型的數(shù)據(jù)集,包含輸入特征和相應的標簽。 ?? Transfer Learning(遷移學習):是一種機器學習方法,通過在一個任務上學到的知識來改善在另一個相關任務上的性能。 ?? Transformer(變壓器):是一種處理序列數(shù)據(jù)的模型架構,通過自注意力機制實現(xiàn)了對序列的全局關注。 ?? Turing Test(圖靈測試):是一種測試人工智能是否能夠表現(xiàn)得像人類一樣的方法,即能否欺騙人類判別其是否為機器。 ?? Underfitting(欠擬合):在機器學習中指的是模型對訓練數(shù)據(jù)學得不夠好,不能很好地適應新數(shù)據(jù)。 ?? Unsupervised Learning(無監(jiān)督學習):是一種機器學習方法,模型從沒有標簽的數(shù)據(jù)中學習,目標是發(fā)現(xiàn)數(shù)據(jù)中的模式和結構。 ?? Validation Data(驗證數(shù)據(jù)):用于調(diào)整模型超參數(shù)的數(shù)據(jù)集,不用于模型的訓練,而是用于評估模型性能。 ?? Vector(向量):在數(shù)學和機器學習中指的是具有大小和方向的量,常用于表示特征或嵌入。 ?? XAI(Explainable Artificial Intelligence):是一種人工智能方法,強調(diào)模型決策的可解釋性和可理解性。 ?? Zero-Shot(零樣本學習):是一種機器學習范例,使用預先訓練的深度學習模型來泛化新類別的樣本。其思路是將訓練實例中已包含的知識遷移到測試實例分類的任務中。需要注意,零樣本學習中訓練和測試集是不相交的。 ? 歡迎各位讀者提出批評和建議,大家有什么感興趣的內(nèi)容話題或者想了解的技術知識可以進行評論留言,咱們一同討論,有好的學習資源我也會第一時間分享給各位,共同學習人工智能領域的知識。 |
|