- Taony 設計私房菜
- Posts
- AI 時代下的信任感設計
AI 時代下的信任感設計
嗨,
我是 Taony
今天想和你聊聊 AI (人工智慧)產品的 UIUX 設計
其中一個我覺得非常有價值的部分
如何和使用者之間建立「信任」
簡單說就是,如何讓 AI 產品的使用者感到安心

這個真的蠻有意思的,因為 AI 產品的特殊性
不像其他傳統的數位產品,它不是信用卡敢不敢填寫
按鈕敢不敢按下去的問題
更多的更像是
你敢不敢把任務交給它?
你敢不敢把資料交給它?
一切的問題出在:AI 很強
對,不知疲倦、無所不知、學習超快
強到它已經不是一個普通的工具而已
它開始參與到我們的生活、工作中
甚至是…感情(日本一位女生嫁給了 ChatGPT 男友)
因為它能力很強,所以我們對它抱有很高的期望
但同時又充滿了懷疑態度、不確定感
特別是將 AI 作為生產力工具的使用者
怕 AI 記錯、理解錯
怕提供錯誤資訊
怕洩漏敏感資料
怕「看起來很準,但其實瞎掰」
特別是現在全世界什麼都要和 AI 搭上關係
一夜之間突然冒出來各種各樣的產品(泡泡很大)
市面上的 AI 產品看起來越來越像:
都擅長寫文案
都擅長總結摘要
都擅長分析
都擅長生成圖片或影片
既然是產品,就需要考量商業利益
市場競爭越來越激烈、越來擁擠
作為 UIUX 設計師,需要開始思考如何賦予 AI 產品差異化
「能否建立信任感」我覺得是產品是否會成功的第一道關卡
信任一旦建立,就一定會形成長期黏性
AI 的功能決定使用者願不願意試一下
但「信任」決定他願不願意一直用下去
這也是為什麼 ChatGPT、Notion、Perplexity
最先優化的都是 UIUX 層面信任感的建立
我整理了 AI 產品 10 條 UIUX 設計建議,分為三大類
Transparency 透明度
Agency & Control 掌控度
Clarity 清晰度
▌Transparency 透明度
1. 誠實揭露
避免 AI 因「過度自信,導致錯誤」造成信任瓦解
誠實比聰明更能讓人感到安心
最典型的問題
AI 出現幻覺,但語氣卻很肯定
無法判斷哪些可信、哪些不可信
UIUX 設計建議
引入 Confidence indicator 自信度顯示低、中、高
對「不確定性」主動提示使用者
用「中性」語氣替代「絕對性的陳述」
當所需資料不足時,主動要求使用者補充
使用者問「咖啡因會提高運動表現嗎?」
AI 可以回應:
「目前的研究結果並非完全一致。我找到了支持與反對的研究,我可以為你整理它們的差異」
這種回應方式比「會」或「不會」更讓人放心
2. 展示推理過程
讓使用者知道 AI 是如何得出答案的
推理思考的過程可見,會讓結果更可信
最典型的問題
AI 看起來像在黑箱操作
隨機性帶來的焦慮
UIUX 設計建議
Step by step 顯示推理過程
顯示所有資料來源、萃取邏輯
使用者要求:「幫我寫一段品牌定位敘述」
AI 介面顯示:
分析你前面提供的產品特性(已讀取 3 個資訊)
比對 5 種常見定位模型
選擇 “Problem → Promise → Proof” 架構
找到缺少的資訊:目標族群情緒
依據以上推理生成初稿
用戶立刻就能理解 AI 的「思考方式、過程」 這一點幾乎現在主流的 AI 工具都已經做的很好
3. 設定能力邊界
需要清楚定義 AI 的能力範圍,避免使用者過高的期待
最典型的問題
容易誤以為 AI “什麼都會”
遇到限制時感覺被「欺騙」
UIUX 設計建議
初次啟動顯示 3–5 條「能力與限制」
在邊界事件中自動提示(ex: 需要醫療專業)
使用者要求:「幫我判斷這是不是皮膚病」
AI 可以回答
我可以:
找出圖像中的特徵
提供可能的相似情況
建議進一步檢查的方向
但我無法:
提供具體醫療診斷
告訴你確切的病因
先說出自己的缺點,也就避免了過高的期望
4. 確保資料透明
讓使用者知道資料的存放方式、保存週期、使用範圍
足夠透明才會建立信任
最典型的問題
使用者不知道資料是否會被記錄
使用者不知道對話和資料是否被用來訓練
UIUX 設計建議
把資料留存 & 訓練分成兩個清晰的選項
在敏感操作(上傳文檔)時提醒使用者
採用清晰易懂的說明,避免使用法律語氣
使用者在上傳 PDF 文檔時,出現提示
「這份檔案將保存 7 天,以便你持續編輯。若你想要即時刪除,請按這裡」
看到這樣的描述,是不是安全感提升很多?
5. 私密模式
讓使用者「確信」他現在是在安全、隱密、乾淨的操作空間內
最典型的問題
使用者擔心對話內容、資料會被記錄
使用者不知道隱私模式是否真的啟動
UIUX 設計建議
私密模式下 UI 改變(顏色、圖示、佈局)
降低 AI 權限:停用插件、資料連結
在對話輸入框上方固定提示隱私狀態
使用者切換到 Incognito 隱私模式後
右上角顯示「Private」小盾牌
輸入框上方標示:
「您的內容不會被記錄、不會被訓練、不會被同步」
這一點我覺得 Grok 比 ChatGPT 做得更好
▌Agency & Control 掌控度
6. 可編輯輸出
對 AI 輸出的文字結果可以進行編輯
使用者擁有調整的權利,也就有了掌控感,從而信任提升
最典型的問題
使用者覺得 AI 在“替我做決定”
AI 輸出的結果不完全符合需求
重複生成浪費時間
UIUX 設計建議
支援 Inline edit 編輯功能
每段文字內容可獨立重寫
提供 “Compare version 對比” 功能
使用者想要生成簡報大綱
每一個段落旁都有可編輯的圖示(例如小鉛筆)
使用者可直接修改文字,不需要再重新生成
7. 模型選擇建議
不同的任務需要不同“能力”的 AI 來處理
有些需要精準、穩定,而有些需要創意
最典型的問題
模型更新後行為改變,使用者不熟悉
不同場景需要不同模型(法律 vs 行銷)
模型說明不夠直覺,含糊不清
UIUX 設計建議
提供「任務導向的模型」選單
用直覺的語言說明,而不是版本編號
保留舊模型供需要穩定性的工作使用
例如模型選單:
穩定版(推薦用於專案管理)
創意發想版(推薦用於行銷、寫作)
快速分析(輕量、反應快)
這比選 GPT-5.1 “立即回答”還是“思考更久” 更友善
不過這一點好像一直都很難有很好的解決方案
無法用一套標準去代表全部使用情境
8. 低摩擦設定
透過逐步引導,降低使用者在使用 AI 時的心理負擔
最典型的問題
使用者通常並不知道自己想要什麼
使用者擔心輸入的提示詞不夠完整
提早收集過多資訊,使用者有壓力
UIUX 設計建議
與任務流程同步詢問必要資訊
先給出結果,再逐步客製化
使用者想要「幫我規劃 5 天京都旅遊行程」
AI 先生成一版行程,再說:
「如果你願意,我可以依據:預算、偏好、同行者,為你調整更準確的建議」
這樣比一開始就要提供一堆詳細資訊來的更輕鬆自然
▌Clarity 清晰度
9. 提示詞引導
降低使用者“不知道怎麼問問題”的障礙
這讓我想起了 ChatGPT 剛出的時候,有專門的 Prompt library
一度讓人覺得,會下提示詞才會用 AI 工具 但是產品發展到最後,一定不會因為使用門檻而降低使用者數量
最典型的問題
使用者一直嘗試 prompt 感覺很挫折
使用者不知道 AI 到底需要哪些資訊
UIUX 設計建議
主動給使用者 Prompt 建議
主動為使用者標註「缺少哪些資訊」
顯示 Confidence indicator 信心指標
例如使用者想要「幫我規劃京都行程」
AI 回應:
目前信心:低
若補充以下資訊,我可以做得更好:
總體預算
喜歡快節奏或慢旅行
是否攜帶家人
10. 主動建議
避免出現空白介面,減少使用者的認知壓力
簡單說就是不要讓使用者打開 AI 後感到無所適從
最典型的問題
使用者不知道可以問什麼
使用者不知道從哪裡開始
UIUX 設計建議
提供預設選項,例如研究、畫圖
提供 Quick Actions 快速選項
基於使用者習慣,提供任務模板,例如開始今天的寫作
ChatGPT 的方式是空白頁面上主動詢問
“你在想什麼?”
“你正在做什麼?”
“我可以如何協助你?”
而 Grok 的做法是簡單的 “您想知道什麼?”
我是覺得這樣會誤導使用者,將 Grok 單純當作更聰明的 Google 來用
Google Gemini 索性就只有一句 “Hello xxx” …
可以看出 ChatGPT 更加的擬人化,在引導使用者的同時,更有溫度
也難怪日本女生會想要嫁了
AI 時代的產品設計,不是簡單的「換介面、換互動方式」
很多設計師以為 AI 產品的設計,就是:
把一堆按鈕改成對話框
把操作模式變成語言互動
其實真正深層的變化在於
「使用者與數位產品之間的關係」
使用者不再是在跟按鈕互動
而是在跟「一個有智慧、有個性、主動的系統」互動
作為 UIUX 設計師需要開始思考
AI 該如何與使用者溝通
AI 什麼時候該出手,什麼時候不該插手
使用者如何保持掌控、安全感、隱私
我覺得這也是 AI 浪潮下,作為設計師最興奮的地方
處處都充滿了機會
不知道你是怎麼想的呢?有沒有感到很期待和興奮?
有了 AI 力量的加持,多出了無限的可能性!
謝謝你願意讀到這裡,希望今天的內容可以帶給你啟發
那我們十二月見囉
2025 年過的真的好快!
祝你工作、生活一切順心遂意
Have a great week!
Taony
Reply