登入
首頁
收藏
0
返回課程
藝術生成 Stable Diffusion與Denoising Diffusion Model(1120)
機器學習研討
機器學習簡介
登錄後請說hello
AI軟體mediapipe簡介與demo操作
copilot詢問python雲端開發平台Google colab並實作
tensorflow-gpu keras ML python套件軟體安裝說明
機器學習911課程 課程說明
生物視覺&機器視覺
分組
AI_ML生物視覺機器視覺
生物視覺 機器視覺1
機器視覺 與haarcascades偵測人臉與眼睛(918)
python雲端開發平台Google colab
ex1 請在google colab上完成一簡易python code
機器學習918 google colab 實作python
機器視覺ILSVRC競賽之後
tensorflow playground(925)
activation函數&自然語言處理
自然語言處理 Natural language Processing簡介
自然語言處理 Natural language Processing
機器學習925tensorflow ground與自然語言處理Word2viz
自然語言處理 Natural language Processing 字詞量化
ML常用的activation函數初探與pyplot繪圖(1009)
[1009]小測驗
機器學習1007激活函數python作業測驗檢討
openAI-whisper
openai whisper在huggingface的試用與在colab上的使用(1016)
問whisper於chatGPT
openai_whisper_ex0.ipynb
免費版Openai-whisper超好用---簡介與python語音前置處理
機器學習1016 whisper課堂簡介
openAI whisper large v3 python轉VTT字幕
whisper超好用---Google Colab python cuda語音辨識程式產生字幕檔(1023)
openai-whisper超好用
whisper辨識與ffmpeg切割影音與調整字幕之一
whisper辨識與ffmpeg切割影音與調整字幕之二colab實測
ex2 openai-whisper試用
藝術生成 & 對抗生成式網路GAN與其他......
藝術生成---對抗式生成網路GAN 與dall-e whichfaceisreal操作(1030)
藝術生成 對抗式生成網路GAN與賽局理論 cycleGan等
藝術生成GAN pdf
Hugging Face的ai網站體驗(1106)
GAN家族 cGAN, styleGAN與Image Translation with pix2pix-tensorflow(1113)
對抗式生成式AI GAN與相關軟體操作(穿插Stable diffusion)
Stable diffusion簡介與實作
藝術生成 Stable Diffusion與Denoising Diffusion Model(1120)
藝術生成_dall-e與_stable_Diffusion
ai產生影片stable video diffusion 在google colab上python實作
ipython code: stable_diffusion_3_with _kerasHub.ipynb
AI機器學習與Stable Diffusion操作
AI機器學習與Stable Diffusion 3 in KerasHub在免費Colab上實作
ex3 AI圖藝術生成
Keras實作神經網路模型---手寫數字辨識
Keras實作神經網路模型之1 mnist手寫數字
Keras實作神經網路模型之2 mnist手寫數字辨識(1127)
AI機器學習Keras淺層神經網路辨識mnist手寫數字
Keras實作神經網路模型
神經網路模型之一 從感知器到神經網路
神經網路模型之2 單一神經元python numpy計算
多神經網路模型
多層神經網路Keras python實作練習(1204)
多層神經網路模型v2
神經網路模型
Keras多層神經網路辨識手寫數字mnist實作V3
CNN卷積神經網路
Keras實作CNN辨識mnist手寫數字
CNN卷積神經網路(1211)
Loss函數 cross entropy 梯度下降
Loss函數、梯度下降、batch size etc
機器學習CNN卷積計算辨識mnist手寫數字
進階CNN
Keras仿AlexNet訓練辨識tflearn花朵資料集oxflower17(1218)
進階CNN
2024 CNN模型仿AlexNet.ipynb
2024 Keras跑仿AlexNet辨識oxflower17處理在Colab上的諸多坑
進階CNN技巧實作仿AlexNet訓練辨識oxflower17達97趴辨識率(1225)
python Keras如何使用仿AlexNet針對oxflower達到99趴以上的辨識率之一
python Keras使用仿AlexNet針對oxflower達到100趴的辨識率實測
期末報告
期末作業
重點
討論
(1)
共享筆記
(3)
筆記
發表時間 : 2024-11-16 21:08
觀看次數 : 48
原始資料來自 :
https://www.youtube.com/embed/Y_IsJk6TBBI?si=pFKcHBWx_-1XMkqf
附件
討論功能僅開放給課程成員,請先加入課程
最新的回應
...more
2024-12-11
M11333012
:
1. 架構和核心概念 Stable Diffusion 是基於**擴散模型(Diffusion Models)**的一種生成技術。它使用隨機噪聲逐步還原數據的過程來生成樣本,從而生成高品質的圖像。 核心思想:模擬從噪聲中學習數據的分布,通過反向擴散過程逐步生成數據。 特點:依賴於馬爾科夫鏈來逐步消除噪聲,生成穩定且細緻的圖像。 GAN(Generative Adversarial Networks) GAN由兩個網絡組成:生成器(Generator)和判別器(Discriminator)。這兩者通過對抗訓練(Adversarial Training)來改進生成結果。 核心思想:生成器試圖生成逼真的數據,判別器試圖區分生成數據和真實數據。 特點:生成器和判別器互相對抗,直到生成器能生成足以欺騙判別器的樣本。 2. 訓練方式 Stable Diffusion 訓練時需要模擬**前向擴散(添加噪聲)和反向擴散(去噪)**兩個過程。 通常需要較長的訓練時間,因為生成過程包含多個步驟。 訓練更加穩定,容易控制生成結果的質量。 GAN 訓練過程是生成器和判別器之間的對抗過程。 訓練可能不穩定,容易出現模式崩潰(Mode Collapse)或收斂問題。 訓練速度通常比Stable Diffusion快,但需要更多調參來保證穩定性。 3. 生成過程 Stable Diffusion 通過一個逐步去噪的過程生成樣本,每一步需要計算,生成較慢。 可以很自然地控制生成樣本的細節,例如通過調整噪聲水平或條件輸入。 GAN 通過生成器一次性生成整個樣本,生成速度較快。 控制生成結果較困難,尤其是對特定細節進行精確調整。 4. 應用場景 Stable Diffusion 擴散模型更適合生成高解析度、細緻的圖像,例如藝術創作或圖片修復。 支持條件生成(例如文本到圖像生成,Text-to-Image),如應用於工具如DALL-E 2和Stable Diffusion。 GAN 更適合生成快速的低解析度圖像或特定領域的樣本(例如人臉生成、風格轉換、圖像超解析)。 常用於增強現有數據集或風格化的應用。 總結 Stable Diffusion:強調逐步生成,細緻控制,擅長高質量圖像生成。 GAN:通過對抗學習,快速生成樣本,但訓練穩定性不如擴散模型。 兩者各有優勢,適用於不同需求和場景。
2024-11-29
M11333001
:
Stable Diffusion與GAN的主要區別在於架構和生成方式。 GAN透過生成器和判別器的對抗訓練生成圖像,速度較快,但易出現模式崩潰;而Stable Diffusion則使用逐步去噪的方式生成圖像,穩定性高但速度較慢。
2024-11-20
B11033101
:
Stable Diffusion 使用擴散過程生成圖像,訓練穩定,適合文本引導生成;而 GAN 通過對抗性訓練生成圖像,訓練過程較為複雜。
2024-11-20
B11033056
:
Stable Diffusion和GAN是兩種不同的生成模型: 生成方式:GAN通過生成器和判別器對抗訓練來生成圖像;Stable Diffusion則是通過將圖像轉換為噪聲,然後反向擴散來生成圖像。 訓練過程:GAN訓練較為複雜且容易不穩定;Stable Diffusion則訓練較穩定。 生成過程:GAN從隨機噪聲生成圖像;Stable Diffusion從噪聲中逐步去噪恢復圖像。 質量與多樣性:GAN生成的圖像質量高但有時多樣性差;Stable Diffusion則能生成更清晰且多樣化的圖像。
2024-11-20
M11333006
:
Stable Diffusion與GAN的主要區別在於架構和生成方式。 GAN透過生成器和判別器的對抗訓練生成圖像,速度較快,但易出現模式崩潰;而Stable Diffusion則使用逐步去噪的方式生成圖像,穩定性高但速度較慢。
安文
請大致說明Stable Diffusion與GAN的不同之處
2024-11-20
1 樓
顯示先前的回應
7 則當中的 3 則
b11033041
GAN利用生成器和判別器的對抗訓練來生成圖像,但訓練過程較為不穩定。
Stable Diffusion基於噪聲擴散過程生成圖像,訓練過程更穩定,並且能夠產生高質量的多樣化圖像。
這兩種技術各有優勢,選擇使用哪一種取決於具體的應用需求和目標。
2024-11-20
2 樓
m11333015
Stable Diffusion和GAN的区别主要在于生成图像的方法和训练的稳定性。 Stable Diffusion使用扩散过程生成图像,训练过程稳定;而GAN使用对抗训练生成图像,训练过程不太稳定。
GAN方法的优点是可以生成逼真的图像,但训练过程通常不够稳定,容易出现模式崩溃或者训练不收敛的问题。
2024-11-20
3 樓
M11333006
Stable Diffusion與GAN的主要區別在於架構和生成方式。
GAN透過生成器和判別器的對抗訓練生成圖像,速度較快,但易出現模式崩潰;而Stable Diffusion則使用逐步去噪的方式生成圖像,穩定性高但速度較慢。
2024-11-20
4 樓
B11033056
Stable Diffusion和GAN是兩種不同的生成模型:
生成方式:GAN通過生成器和判別器對抗訓練來生成圖像;Stable Diffusion則是通過將圖像轉換為噪聲,然後反向擴散來生成圖像。
訓練過程:GAN訓練較為複雜且容易不穩定;Stable Diffusion則訓練較穩定。
生成過程:GAN從隨機噪聲生成圖像;Stable Diffusion從噪聲中逐步去噪恢復圖像。
質量與多樣性:GAN生成的圖像質量高但有時多樣性差;Stable Diffusion則能生成更清晰且多樣化的圖像。
2024-11-20
5 樓
B11033101
Stable Diffusion 使用擴散過程生成圖像,訓練穩定,適合文本引導生成;而 GAN 通過對抗性訓練生成圖像,訓練過程較為複雜。
2024-11-20
6 樓
M11333001
Stable Diffusion與GAN的主要區別在於架構和生成方式。
GAN透過生成器和判別器的對抗訓練生成圖像,速度較快,但易出現模式崩潰;而Stable Diffusion則使用逐步去噪的方式生成圖像,穩定性高但速度較慢。
2024-11-29
7 樓
M11333012
1. 架構和核心概念
Stable Diffusion
是基於**擴散模型(Diffusion Models)**的一種生成技術。它使用隨機噪聲逐步還原數據的過程來生成樣本,從而生成高品質的圖像。
核心思想:模擬從噪聲中學習數據的分布,通過反向擴散過程逐步生成數據。
特點:依賴於馬爾科夫鏈來逐步消除噪聲,生成穩定且細緻的圖像。
GAN(Generative Adversarial Networks)
GAN由兩個網絡組成:生成器(Generator)和判別器(Discriminator)。這兩者通過對抗訓練(Adversarial Training)來改進生成結果。
核心思想:生成器試圖生成逼真的數據,判別器試圖區分生成數據和真實數據。
特點:生成器和判別器互相對抗,直到生成器能生成足以欺騙判別器的樣本。
2. 訓練方式
Stable Diffusion
訓練時需要模擬**前向擴散(添加噪聲)和反向擴散(去噪)**兩個過程。
通常需要較長的訓練時間,因為生成過程包含多個步驟。
訓練更加穩定,容易控制生成結果的質量。
GAN
訓練過程是生成器和判別器之間的對抗過程。
訓練可能不穩定,容易出現模式崩潰(Mode Collapse)或收斂問題。
訓練速度通常比Stable Diffusion快,但需要更多調參來保證穩定性。
3. 生成過程
Stable Diffusion
通過一個逐步去噪的過程生成樣本,每一步需要計算,生成較慢。
可以很自然地控制生成樣本的細節,例如通過調整噪聲水平或條件輸入。
GAN
通過生成器一次性生成整個樣本,生成速度較快。
控制生成結果較困難,尤其是對特定細節進行精確調整。
4. 應用場景
Stable Diffusion
擴散模型更適合生成高解析度、細緻的圖像,例如藝術創作或圖片修復。
支持條件生成(例如文本到圖像生成,Text-to-Image),如應用於工具如DALL-E 2和Stable Diffusion。
GAN
更適合生成快速的低解析度圖像或特定領域的樣本(例如人臉生成、風格轉換、圖像超解析)。
常用於增強現有數據集或風格化的應用。
總結
Stable Diffusion:強調逐步生成,細緻控制,擅長高質量圖像生成。
GAN:通過對抗學習,快速生成樣本,但訓練穩定性不如擴散模型。
兩者各有優勢,適用於不同需求和場景。
2024-12-11
8 樓
筆記功能僅開放給課程成員,請先加入課程
Prev
Stable diffusion簡介與實作
Next
藝術生成_dall-e與_stable_Diffusion
是基於**擴散模型(Diffusion Models)**的一種生成技術。它使用隨機噪聲逐步還原數據的過程來生成樣本,從而生成高品質的圖像。
GAN由兩個網絡組成:生成器(Generator)和判別器(Discriminator)。這兩者通過對抗訓練(Adversarial Training)來改進生成結果。