登入首頁
收藏 0
返回課程
20260102B
  • 服務業管理
  • 20260105
  • 20260105A
  • 20260105b
  • 20260102
  • 20260102A
  • 20260102B
  • 20260102C
  • 20260102D
  • 20251226
  • 20251226A
  • 20251226B
  • 20251222
  • 20251222A
  • 20251222B
  • 20251219
  • 20251219A
  • 20251219B
  • 20251219C
  • 20251215
  • 20251215A
  • 20251215B
  • 20251215C
  • 20251117
  • 20251117A
  • 20251117B
  • 20251117C
  • 20251110
  • 20251110A
  • 20251110B
  • 20251110C
  • 20251103
  • 20251103A
  • 20251103B
  • 20251103C
  • 索引
  • 重點
  • 討論
  • 筆記
長度: 01:03, 發表時間 : 2026-01-02 19:59
觀看次數 : 10
  • 00:05
    1. index 1
  • 00:13
    2. Slide 1
  • 00:29
    3. Q1 管理 LLM 幻覺 (Hallucination) 風險的最有效技術手段是?
  • 00:07
    4. Q2 企業使用雲端 LLM API 時,為緩解Prompt 數據洩露風險,應在數據輸入前採取什麼行動?
  • 00:01
    5. Q3 Prompt 注入 (Prompt Injection) 攻擊主要試圖繞過 LLM 的哪項機制?
  • 00:01
    6. Q4 當 LLM 輸出內容存在倫理或偏見 (Bias) 風險時,組織層面應實施哪種緩解策略?
  • 00:01
    7. Q5 在 AI 應用規劃中,若 LLM 輸出錯誤導致商業損失,為了明確責任與可歸責性,規劃者必須建立什麼機制?
  • 00:00
    8. Q6 為緩解 LLM 應用帶來的成本失控風險,最直接的營運控制措施是什麼?
  • 00:00
    9. Q5 在 AI 應用規劃中,若 LLM 輸出錯誤導致商業損失,為了明確責任與可歸責性,規劃者必須建立什麼機制?
  • 00:00
    10. Q4 當 LLM 輸出內容存在倫理或偏見 (Bias) 風險時,組織層面應實施哪種緩解策略?
  • 00:00
    11. Q3 Prompt 注入 (Prompt Injection) 攻擊主要試圖繞過 LLM 的哪項機制?
附件
長度: 01:03, 發表時間 : 2026-01-02 19:59
觀看次數 : 10
附件
此教材已將討論功能關閉
筆記功能僅開放給課程成員,請先加入課程
Prev
20260102A
Next
20260102C