AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)-2天

  培訓(xùn)講師:尹立慶

講師背景:
尹立慶老師多年從事人工智能、深度學(xué)習(xí)、大數(shù)據(jù)、區(qū)塊鏈、云計算、物聯(lián)網(wǎng)研發(fā)工作經(jīng)驗,資深軟件架構(gòu)師,數(shù)學(xué)博士,北航移動云計算碩士,Cloudera大數(shù)據(jù)認(rèn)證,項目管理師(PMP)認(rèn)證,移動云計算專家,主要研究方向包括人工智能、深度學(xué)習(xí)、機器學(xué) 詳細(xì)>>

尹立慶
    課程咨詢電話:

AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)-2天詳細(xì)內(nèi)容

AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)-2天

AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)
-15240011430課程簡介
大模型的應(yīng)用場景很廣泛,可以用于處理多種類型的對話,包過對話機器人、問答機器人和客服機器人等。它還可以用于各種自然語言處理任務(wù),比如文本摘要、情感分析和信息提取等。例如,在一個問答系統(tǒng)中,大模型可以提供準(zhǔn)確的答案,解決用戶的疑惑;在一個客服機器人中,他可以幫助用戶解決問題,提供更好的服務(wù)體驗。
大模型是用網(wǎng)絡(luò)上之前的數(shù)據(jù)訓(xùn)練的,因此會有信息滯后的局限性。雖然這些模型的通用知識很棒,但是如果能讓它們連接到自定義的數(shù)據(jù)和計算,就會有更多的實用價值,LangChain即可以解決以上的局限性和提供實用價值。LangChain是一個開源的框架,它可以讓AI開發(fā)人員把大型語言模型(LLM)和企業(yè)內(nèi)部數(shù)據(jù)結(jié)合起來。它提供了Python或JavaScript(TypeScript)的包。
LangChain可以讓自己的LLM在回答問題時參考整個數(shù)據(jù)庫。所以可以讓自己的大模型訪問最新的數(shù)據(jù),比如報告、文檔和網(wǎng)站信息。
此課程是尹立慶老師多年人工智能工作經(jīng)驗的分享,重點介紹LangChain帶來的技術(shù)變革與應(yīng)用落地和未來發(fā)展趨勢。
-15240011430培訓(xùn)目標(biāo)

深入講解AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù),大模型微調(diào);
LangChain概述;
LangChain環(huán)境部署;
LangChain的Pipeline現(xiàn)場實操;
深度解讀LangChain帶來的技術(shù)變革與行業(yè)應(yīng)用落地;
深度解讀業(yè)界最新的LangChain技術(shù);
深度解讀LangChain的原理、技術(shù)特性;
深度解讀glm2_6b大模型;
深度剖析LangChain的價值、應(yīng)用場景;
課程重點探討LangChain的未來發(fā)展趨勢;
介紹LangChain實施落地技術(shù);
-15240011430培訓(xùn)對象

本課程適合于對ChatGPT、LangChain感興趣的人員;
本課程適合于架構(gòu)師、技術(shù)經(jīng)理、高級工程師;
適合于企業(yè)科技研發(fā)人員和人工智能科學(xué)家;
-15240011430培訓(xùn)方式

以課堂講解、演示、案例分析為主,內(nèi)容偏實用,結(jié)合講解與演示方式,循序漸進(jìn),輔以互動研討、現(xiàn)場答疑、學(xué)以致用。
-15240011430課程安排

課程時間:2天
課程內(nèi)容:
時間
內(nèi)容
備注
第1天
AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)大模型微調(diào)(深入講解AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù))(120分鐘)
AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)
大模型微調(diào)
大模型微調(diào)的概念和意義
預(yù)訓(xùn)練模型的優(yōu)勢和應(yīng)用場景
大模型微調(diào)基本原理
大模型微調(diào)方法
數(shù)據(jù)加載、模型訓(xùn)練、調(diào)參等常見操作的優(yōu)化和加速方法
使用可視化工具進(jìn)行模型訓(xùn)練過程的分析和調(diào)試
大模型微調(diào)的基本流程和關(guān)鍵步驟
常用的深度學(xué)習(xí)框架和工具
TensorFlow、PyTorch等常見深度學(xué)習(xí)框架
Parameter-Efficient Fine-Tuning (PEFT)
預(yù)訓(xùn)練階段
目標(biāo)任務(wù)準(zhǔn)備
構(gòu)建微調(diào)任務(wù)
PEFT微調(diào)
常用的PEFT方法
Adapter Tuning
Prefix Tuning
Prompt Tuning
P-Tuning
LoRA
案例剖析:應(yīng)用大模型微調(diào)技術(shù)解決實際問題
大模型微調(diào)技術(shù)與實踐(大模型微調(diào)技術(shù)與實踐)(90分鐘)
大模型微調(diào)技術(shù)與實踐
常見的大模型微調(diào)技術(shù)
知識蒸餾
遷移學(xué)習(xí)
領(lǐng)域適應(yīng)
案例大模型微調(diào)的實踐
文本分類
圖像識別
自然語言處理
探討大模型微調(diào)過程中可能遇到的問題和解決方案
選擇合適的預(yù)訓(xùn)練模型并進(jìn)行微調(diào)
如何評估微調(diào)效果和改進(jìn)方案
實際應(yīng)用案例分享與討論
LangChain概述(LangChain概述)(30分鐘)
LangChain概述
LangChain介紹
LangChain的重要概念
Components
Prompts
Chains
Agents
大模型微調(diào)
LangChain工作原理(LangChain工作原理)(30分鐘)
LangChain工作原理
LangChain如何與OpenAI的LLM合作
LoRA模型(LoRA模型)(90分鐘)
LoRA模型
LangChain如何與OpenAI的LLM合作
LoRA模型概述
繪畫模型
LoRA 原論文
LoRA模型的核心思想
數(shù)學(xué)原理
LoRA模型訓(xùn)練
低秩適應(yīng)訓(xùn)練方法
LoRA 庫的GitHub存儲庫
時間
內(nèi)容
備注
第2天
深度解讀glm2_6b大模型(深度解讀glm2_6b大模型)(90分鐘)
深度解讀glm2_6b大模型
glm2_6b大模型的原理
GPT(Generative Pre-trained Transformer)架構(gòu)
glm2_6b大模型數(shù)據(jù)集
glm2_6b大模型的部署
準(zhǔn)備環(huán)境
安裝依賴庫
下載模型權(quán)重
加載模型
部署API或服務(wù)
調(diào)優(yōu)和監(jiān)控
glm2_6b大模型的訓(xùn)練
glm2_6b大模型的應(yīng)用
自然語言處理
文本生成
機器翻譯
問答系統(tǒng)
LangChain環(huán)境部署(LangChain環(huán)境部署)(90分鐘)
LangChain環(huán)境部署
安裝依賴包
配置環(huán)境
獲取pinecone環(huán)境和KPI_KEY
獲取OPENAI_KPI_KEY
LangChain的Pipeline現(xiàn)場實操(LangChain的Pipeline現(xiàn)場實操)(90分鐘)
LangChain的Pipeline現(xiàn)場實操
Pipeline執(zhí)行流程
大模型包裝器
LangChain應(yīng)用實戰(zhàn)(LangChain應(yīng)用實戰(zhàn))(90分鐘)
模型(LLM包裝器)
提示Prompts
Prompts模板
鏈Chains
嵌入和向量存儲Embeddings and VectorStores
代理Agents
示例代碼

 

尹立慶老師的其它課程

人工智能大模型應(yīng)用案例實戰(zhàn)-15240011430課程簡介大模型也稱為大語言模型(LLM)是指使用大量文本數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型,可以生成自然語言文本或理解語言文本的含義。這些模型通?;谏疃葘W(xué)習(xí)架構(gòu),如Transformer等,這有助于它們在各種NLP任務(wù)上取得令人驚嘆的表現(xiàn)。目前的大語言模型(如GPT和BERT)采用與小模型類似的Transformer架

 講師:尹立慶詳情


COPYRIGT @ 2001-2018 HTTP://m.musicmediasoft.com INC. ALL RIGHTS RESERVED. 管理資源網(wǎng) 版權(quán)所有