AIGC-6天

  培訓(xùn)講師:葉梓

講師背景:
葉梓老師葉梓,工學(xué)博士,高級(jí)工程師?,F(xiàn)某大型上市企業(yè)資深技術(shù)專家。2005年上海交通大學(xué)計(jì)算機(jī)專業(yè)博士畢業(yè),在校期間的主研方向?yàn)閿?shù)據(jù)挖掘、機(jī)器學(xué)習(xí)、人工智能。畢業(yè)后即進(jìn)入軟件行業(yè)從事信息化技術(shù)相關(guān)工作;負(fù)責(zé)或參與了多項(xiàng)、省市級(jí)人工智能及大數(shù) 詳細(xì)>>

葉梓
    課程咨詢電話:

AIGC-6天詳細(xì)內(nèi)容

AIGC-6天

基于人工智能的內(nèi)容生成(AIGC)
【課程簡(jiǎn)介】
無(wú)論是火遍全網(wǎng)的AI繪畫,還是震驚世人的ChatGPT,都屬于AIGC(基于人工智能的內(nèi)容生成)這一概念。AIGC并不是一個(gè)全新的概念,它最早出現(xiàn)在深度學(xué)習(xí)模型“對(duì)抗生成網(wǎng)絡(luò)”GAN的應(yīng)用中,被譽(yù)為“21世紀(jì)最強(qiáng)大的算法模型之一” ,后續(xù)發(fā)展起來(lái)的擴(kuò)散模型,以及自然語(yǔ)言領(lǐng)域BERT、GPT等都是典型的AIGC模型。
本課程以AIGC發(fā)展歷程為主線,由淺入深介紹了AIGC相關(guān)模型的技術(shù)和應(yīng)用場(chǎng)景,可以作為AIGC領(lǐng)域?qū)W習(xí)者的入門到進(jìn)階級(jí)課程。
【課程時(shí)長(zhǎng)】
6天(6小時(shí)/天)
【課程對(duì)象】
理工科本科及以上,且至少了解一門編程語(yǔ)言。
【課程大綱】(培訓(xùn)內(nèi)容可根據(jù)客戶需求調(diào)整)
時(shí)間
內(nèi)容
案例實(shí)踐與練習(xí)
Day1上午
綜述與準(zhǔn)備
AIGC綜述
AIGC的概念
AIGC的應(yīng)用場(chǎng)景
AIGC的知識(shí)地圖
準(zhǔn)備工作
概念與術(shù)語(yǔ)
Python(Anaconda)的安裝
Pycharm的安裝與使用
Jupyter Notebook的安裝與使用
Tensorflow與pytorch的安裝
Opencv、Sklearn工具包的運(yùn)用
案例實(shí)踐:
Anaconda安裝
Pip install的技巧
Tensorflow-GPU的安裝
pytorch的安裝
Jupyter Notebook的使用
Opencv的基本例子
Day1下午
基礎(chǔ)模型
基礎(chǔ)的基礎(chǔ):神經(jīng)網(wǎng)絡(luò)
人工神經(jīng)元及感知機(jī)模型
Sigmoid激活函數(shù)
前向神經(jīng)網(wǎng)絡(luò)的架構(gòu)
梯度下降
誤差反向傳播詳解
基礎(chǔ)的基礎(chǔ):性能評(píng)價(jià)指標(biāo)(5)
精確率;
P、R與F1
ROC與AUC
對(duì)數(shù)損失
泛化性能評(píng)價(jià):k折驗(yàn)證驗(yàn)證
案例實(shí)踐:
手算神經(jīng)網(wǎng)絡(luò)BP算法
只用numpy,手推BPNN
Day2上午
深度學(xué)習(xí)基礎(chǔ)
深度學(xué)習(xí)基礎(chǔ)
連接主義的興衰
深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的區(qū)別與聯(lián)系
目標(biāo)函數(shù)與激勵(lì)函數(shù)
學(xué)習(xí)步長(zhǎng)
權(quán)重初始化
權(quán)重衰減(Weight Decay)
梯度下降的方法
避免過(guò)適應(yīng)
圖像處理基礎(chǔ):用于分類的CNN
圖像分類概述
AlexNet
ZF-Net
卷積層的誤差反向傳播
池化層的誤差反向傳播
VGG(5層變?yōu)?組)
遷移學(xué)習(xí)
GoogLenet和Inception模塊
模型退化與ResNet
DenseNet(充分利用特征)
最新的efficientnet
案例實(shí)踐:
通過(guò)深度BP網(wǎng)絡(luò)實(shí)現(xiàn)手寫數(shù)字的識(shí)別
各種梯度下降方法的實(shí)戰(zhàn)效果
Batch normalization的實(shí)戰(zhàn)效果
VGG各層的可視化展現(xiàn)
遷移學(xué)習(xí):識(shí)別貓和狗
Resnet用于圖像分類
Day2下午
圖像生成模型
VAE
GAN
早期圖像生成模型:VAE
圖像生成模型
AE
VAE
DAE
圖像生成經(jīng)典模型:GAN
生成對(duì)抗網(wǎng)絡(luò)(GAN)
KL散度與JS散度
改進(jìn)的GAN:DCGAN
加上約束:infoGAN
根本上解決:Wasserstein GAN
Zoo of GAN
案例實(shí)踐:
GAN生成的數(shù)字
VAE生成的數(shù)字
babyGAN:特朗普的孩子?
styleGAN:查無(wú)此人
Day3上午
圖像分類 CNN
圖像分類CNN
自然語(yǔ)言處理基礎(chǔ)(1)
語(yǔ)言模型
Bi-Gram與N-Gram
機(jī)械分詞與統(tǒng)計(jì)分詞
詞性標(biāo)注
命名實(shí)體識(shí)別
情感分析
自然語(yǔ)言生成基礎(chǔ):RNN
RNN基本原理
LSTM、GRU
雙向循環(huán)神經(jīng)網(wǎng)絡(luò)
編碼器與解碼器結(jié)構(gòu)
seq2seq模型
Attention
圖片->文字的生成:NIC
案例實(shí)踐:
jieba的分詞效果
交易數(shù)據(jù)的預(yù)測(cè);
《絕代雙驕》人物關(guān)系分析
SnowNLP:褒義的中性詞
Show and tell模型效果
Day4上午
自然語(yǔ)言處理
自然語(yǔ)言生成基礎(chǔ):詞向量
W2V:CBOW
W2V:skip-gram
W2V:Hierachical Softmax
W2V:Negative Sampling
自然語(yǔ)言生成進(jìn)階:Transformer
所需的僅僅是“注意力”
Transformer中的block
自注意力機(jī)制
多頭注意力
位置編碼(拋棄RNN)
Batch Norm與Layer Norm
解碼器的構(gòu)造
案例實(shí)踐:
藏頭詩(shī)生成;
《絕代雙驕》分析
SnowNLP:褒義的中性詞
Word2vec代碼解讀
手撕Transformer
Day4下午
預(yù)訓(xùn)練模型基礎(chǔ)
自然語(yǔ)言生成進(jìn)階:BERT
BERT整體架構(gòu)
Masked-LM
Next Sentence Prediction
改造下游任務(wù)
WordPiece作為輸入
哪些改進(jìn)起作用?
自然語(yǔ)言生成進(jìn)階:GPT
“獨(dú)角獸”的威力
GPT的內(nèi)部架構(gòu)
基于Transformer的改造
自注意力機(jī)制的改進(jìn)
GPT的應(yīng)用場(chǎng)景
GPT-3
最新的GPT-3.5
基于圖像補(bǔ)全的模型:MAE
iGPT
Vision Transformer(ViT)
BEiT
MAE令人驚奇的效果
MAE詳解
案例實(shí)踐:
BERT代碼解讀
BERT下游任務(wù)的改造
讓GPT寫一篇散文
GPT會(huì)做小學(xué)應(yīng)用題嗎?
MAE的效果
Day5上午
強(qiáng)化學(xué)習(xí)
強(qiáng)化學(xué)習(xí)基礎(chǔ)
agent的屬性
馬爾科夫獎(jiǎng)勵(lì)/決策過(guò)程
exploration and exploitation
狀態(tài)行為值函數(shù)
Bellman期望方程
最優(yōu)策略
強(qiáng)化學(xué)習(xí)經(jīng)典方法
策略迭代與價(jià)值迭代
蒙特卡洛法
時(shí)序差分法
DP、MC、TD的關(guān)系
案例實(shí)踐:
格子世界
谷底的小車
倒立擺
blackjack
Day5下午
深度強(qiáng)化學(xué)習(xí)
深度強(qiáng)化學(xué)習(xí)
值函數(shù)的參數(shù)化表示
值函數(shù)的估計(jì)過(guò)程
深度學(xué)習(xí)與強(qiáng)化學(xué)習(xí)的結(jié)合
基礎(chǔ)的DQN 方法
Double DQN
Prioritized Replay
Dueling Network
基于信賴域的深度強(qiáng)化學(xué)習(xí)
信賴域系方法背景
信賴域系方法發(fā)展路線圖
TRPO方法
PPO方法
案例實(shí)踐:
井字棋
笨鳥(niǎo)先飛:DQN
Day6上午
最新生成模型
擴(kuò)散模型(圖像生成最新模型)綜述
1、擴(kuò)散模型與GAN、VAE的關(guān)系
2、擴(kuò)散模型常用算法
3、擴(kuò)散模型的應(yīng)用領(lǐng)域
擴(kuò)散模型之DDPM
1、整體流程
2、前向與還原步驟
3、訓(xùn)練與采樣過(guò)程
4、模型結(jié)構(gòu)
5、實(shí)驗(yàn)效果
擴(kuò)散模型之DDIM
1、前提條件
2、優(yōu)化推理與優(yōu)化前置條件
4、實(shí)驗(yàn)效果
擴(kuò)散模型之CLIP
1、基本概念
2、模型架構(gòu)
3、實(shí)驗(yàn)效果
案例實(shí)踐:
DDPM的效果
CLIP的效果
Day6下午
最新生成模型及chatGPT
擴(kuò)散模型之DALLE-2
1、整體架構(gòu)
2、PIROR模塊與DECODER模塊
4、效果對(duì)比
擴(kuò)散模型之Stable-Diffusion
1、整體架構(gòu)
2、潛在表達(dá)得生成模型
3、條件化機(jī)制
4、實(shí)驗(yàn)效果
chatGPT(自然語(yǔ)言生成最新模型)
1、技術(shù)背景
2、主要特點(diǎn)
3、ChatGPT的訓(xùn)練過(guò)程
4、InstructGPT與PPO
5、WebGPT和CICERO
6、chatGPT的應(yīng)用領(lǐng)域
7、chatGPT引發(fā)的討論
案例實(shí)踐:
異想天開(kāi)的DALL-E 2
匪夷所思的chatGPT
其他生成模型效果演示

 

葉梓老師的其它課程

DeepSeek輔助日常工作培訓(xùn)提綱一、引言介紹大模型領(lǐng)域的競(jìng)爭(zhēng)態(tài)勢(shì)強(qiáng)調(diào)DeepSeek的獨(dú)特優(yōu)勢(shì)二、DeepSeek概述DeepSeek的發(fā)展背景與定位DeepSeek各版本的特點(diǎn)與區(qū)別三、DeepSeek部署本地單機(jī)部署DeepSeek蒸餾版的硬件要求本地單機(jī)部署DeepSeek(量化)滿血版的配置與性能本地單機(jī)多卡部署DeepSeek(量化)滿血版的策

 講師:葉梓詳情


知識(shí)圖譜的Python實(shí)現(xiàn)【課程簡(jiǎn)介】本課程包含知識(shí)圖譜的基本概念及常用算法,并實(shí)現(xiàn)了一個(gè)基于知識(shí)圖譜的對(duì)話機(jī)器人。通過(guò)1天的系統(tǒng)學(xué)習(xí)、案例講解和動(dòng)手實(shí)踐,讓學(xué)員能初步了解知識(shí)圖譜的的相關(guān)知識(shí)與技術(shù)?!菊n程對(duì)象】理工科本科以上,或至少了解一種編程語(yǔ)言。知識(shí)圖譜基礎(chǔ)知識(shí)圖譜存儲(chǔ)知識(shí)圖譜基礎(chǔ)概念知識(shí)推理本體推理方法本體推理工具語(yǔ)義搜索RDF與RDFSOWL與OW

 講師:葉梓詳情


智能醫(yī)療技術(shù)與ChatGPT臨床應(yīng)用三日深度培訓(xùn)第一天:人工智能基礎(chǔ)與Python編程入門上午:人工智能在醫(yī)療領(lǐng)域的應(yīng)用概述Python編程基礎(chǔ)環(huán)境搭建、數(shù)據(jù)類型、流程控制Python環(huán)境搭建Python數(shù)據(jù)類型與流程控制Python函數(shù)的應(yīng)用Python面向?qū)ο缶幊?文件讀寫和目錄操作異常處理機(jī)器學(xué)習(xí)概述數(shù)據(jù)探索性分析:智能化數(shù)據(jù)分析特征工程:數(shù)據(jù)準(zhǔn)備、數(shù)

 講師:葉梓詳情


人工智能“最強(qiáng)模型”transformer詳解【課程簡(jiǎn)介】Transformer是迄今為止人工智能領(lǐng)域的最新和最強(qiáng)大的模型類別之一。它幾乎正在憑借一己之力來(lái)推動(dòng)深度學(xué)習(xí)的又一波重大進(jìn)步。Transformer模型充分運(yùn)用了稱為注意力和自注意力機(jī)制,以檢測(cè)系列(或圖像)中元素相互影響和相互依賴的微妙關(guān)系。本課程通過(guò)2天時(shí)間的詳細(xì)介紹,可使學(xué)習(xí)者初步了解Tran

 講師:葉梓詳情


||1.人工智能概述||第一節(jié):人工智能與機(jī)器學(xué)習(xí)基礎(chǔ)|2.機(jī)器學(xué)習(xí)概述|||3.機(jī)器學(xué)習(xí)算法應(yīng)用分析|||1.一元線性回歸|||2.代價(jià)函數(shù)|||3.梯度下降法||第二節(jié):回歸算法|4.sklearn一元線性回歸應(yīng)用|||5.多元線性回歸|||6.sklearn多元線性回歸應(yīng)用|||案例:葡萄酒質(zhì)量和時(shí)間的關(guān)系|||1.KNN分類算法介紹|||2.KNN分

 講師:葉梓詳情


人工智能技術(shù)詳解【課程內(nèi)容】本課程包含大數(shù)據(jù)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、知識(shí)圖譜、強(qiáng)化學(xué)習(xí)與深度強(qiáng)化學(xué)習(xí)的相關(guān)知識(shí)。【課程時(shí)長(zhǎng)】7天(7小時(shí)/天)【課程對(duì)象】理工科本科及以上,且至少了解一門編程語(yǔ)言?!菊n程大綱】(培訓(xùn)內(nèi)容可根據(jù)客戶需求調(diào)整)時(shí)間內(nèi)容案例實(shí)踐與練習(xí)Day1上午準(zhǔn)備工作準(zhǔn)備工作1.概念與術(shù)語(yǔ)2.Python(Anaconda)的安裝3.Pycharm

 講師:葉梓詳情


人工智能與深度學(xué)習(xí)第一天:人工智能概念與經(jīng)典算法人工智能概念綜述(第一天——1)從一些術(shù)語(yǔ)辨析人工智能人工智能之連接主義的興衰史這次AI的熱潮是怎么來(lái)的?圖像處理領(lǐng)域的最新熱點(diǎn)(第一天——2)分類、目標(biāo)檢測(cè)與實(shí)例分割風(fēng)格遷移自動(dòng)駕駛?cè)梭w姿態(tài)識(shí)別超分辨率圖像生成語(yǔ)言處理領(lǐng)域的最新熱點(diǎn)(第一天——3)Attention機(jī)制自動(dòng)構(gòu)建知識(shí)圖譜看圖說(shuō)話預(yù)訓(xùn)練機(jī)制三大經(jīng)

 講師:葉梓詳情


人工智能之最新自然語(yǔ)言處理技術(shù)與實(shí)戰(zhàn)課程介紹:自然語(yǔ)言處理(簡(jiǎn)稱NLP)是計(jì)算機(jī)科學(xué)和人工智能研究的一個(gè)重要方向,研究計(jì)算機(jī)和理解和運(yùn)用人類語(yǔ)言進(jìn)行交互的問(wèn)題,它是集語(yǔ)言學(xué)、機(jī)器學(xué)習(xí)、統(tǒng)計(jì)學(xué)、大數(shù)據(jù)于一體的綜合學(xué)科。本課程主要介紹了NLP中的常用知識(shí)點(diǎn):分詞、詞法分析、句法分析、向量化方法、經(jīng)典的NLP機(jī)器學(xué)習(xí)算法,還重點(diǎn)介紹了NLP中最近兩年來(lái)基于大規(guī)模語(yǔ)

 講師:葉梓詳情


第一天上午:統(tǒng)計(jì)分析原理從最簡(jiǎn)單的案例開(kāi)始統(tǒng)計(jì)基礎(chǔ)描述性統(tǒng)計(jì)用SPSS實(shí)現(xiàn)描述性統(tǒng)計(jì)的案例回歸分析:線性回歸回歸分析:logistics回歸用SPSS實(shí)現(xiàn)回歸分析的案例可視化工具第一天下午:數(shù)據(jù)庫(kù)與數(shù)據(jù)倉(cāng)庫(kù)介紹數(shù)據(jù)庫(kù)概述SQL(基本的增、刪、改、查)SQL(稍復(fù)雜的子句或嵌套)基于MySQL的上機(jī)操作SQL語(yǔ)言數(shù)據(jù)倉(cāng)庫(kù):度量與維度數(shù)據(jù)倉(cāng)庫(kù):星型模型、雪花模型

 講師:葉梓詳情


計(jì)算機(jī)視覺(jué)【課程時(shí)長(zhǎng)】3天(7小時(shí)/天)【課程對(duì)象】理工科本科及以上,且至少了解一門編程語(yǔ)言?!菊n程大綱】(培訓(xùn)內(nèi)容可根據(jù)客戶需求調(diào)整)時(shí)間內(nèi)容案例實(shí)踐與練習(xí)Day1上午準(zhǔn)備工作準(zhǔn)備工作決策樹(shù)準(zhǔn)備工作(1)概念與術(shù)語(yǔ)Python(Anaconda)的安裝Pycharm的安裝與使用JupyterNotebook的安裝與使用Tensorflow與pytorch的

 講師:葉梓詳情


 發(fā)布內(nèi)容,請(qǐng)點(diǎn)我! 講師申請(qǐng)/講師自薦
清華大學(xué)卓越生產(chǎn)運(yùn)營(yíng)總監(jiān)高級(jí)研修班
清華大學(xué)卓越生產(chǎn)運(yùn)營(yíng)總監(jiān)高級(jí)研修班
COPYRIGT @ 2001-2018 HTTP://m.musicmediasoft.com INC. ALL RIGHTS RESERVED. 管理資源網(wǎng) 版權(quán)所有