「11401感知科技與產品設計」:修訂間差異
出自CCW Lecture
無編輯摘要 |
|||
行 20: | 行 20: | ||
* '''學生任務''':體驗AI語音應用,紀錄安撫感受 | * '''學生任務''':體驗AI語音應用,紀錄安撫感受 | ||
* 📚 技術資源: | * 📚 技術資源: | ||
** [NoteGPT TTS](https://notegpt.io/text-to-speech) | ** [NoteGPT TTS (官方)](https://notegpt.io/text-to-speech) | ||
** [openai.fm](https://openai.fm) | ** [openai.fm (官方 Demo)](https://openai.fm) | ||
--- | --- | ||
行 48: | 行 39: | ||
📚 '''參考資料(中文)''': | 📚 '''參考資料(中文)''': | ||
* 林銘泉(2013)。〈整合感性語意差異的顧客需求設計分析〉。[PDF](https://nhuir.nhu.edu.tw/bitstream/987654321/18616/1/1022221E343005.pdf) | * 林銘泉(2013)。〈整合感性語意差異的顧客需求設計分析〉。[PDF](https://nhuir.nhu.edu.tw/bitstream/987654321/18616/1/1022221E343005.pdf) | ||
* 曾國維、林靖(2010)。〈以語意差異法評價建築立面意象〉。《設計學報》 | * 曾國維、林靖(2010)。〈以語意差異法評價建築立面意象〉。《設計學報》。 〔[TCI 索引頁](https://tci.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi?o=dnclresource&s=id%3D%22A11002006%22.) 〕 | ||
* 辜婷資(2013)。〈心理因素對環境色彩喜好之研究〉。文化大學碩論。 | * 辜婷資(2013)。〈心理因素對環境色彩喜好之研究〉。文化大學碩論。[PDF](https://ir.lib.pccu.edu.tw/bitstream/987654321/25449/2/fb150116132242.pdf) | ||
--- | --- | ||
行 68: | 行 51: | ||
'''操作流程(學生需依此完成作業)''': | '''操作流程(學生需依此完成作業)''': | ||
1. 使用 [openai.fm](https://openai.fm) 生成至少3種語音。 | 1. 使用 [openai.fm](https://openai.fm) 生成至少3種語音。 | ||
2. 建立 6-8 對詞語量表,用 Google | 2. 建立 6-8 對詞語量表,用 Google 表單 製作問卷 ([產品頁](https://workspace.google.com/intl/zh-TW/products/forms/)、[表單入口](https://docs.google.com/forms/)) 。 | ||
3. 邀請至少10位受測者填寫。 | 3. 邀請至少10位受測者填寫。 | ||
4. 匯出數據,計算平均值並繪製雷達圖。 | 4. 匯出數據,計算平均值並繪製雷達圖。 | ||
行 75: | 行 58: | ||
📚 '''參考資料(中文)''': | 📚 '''參考資料(中文)''': | ||
* 吳明隆(2010)。《問卷統計分析實務》。臺北:五南。 | * 吳明隆(2010)。《問卷統計分析實務》。臺北:五南。 | ||
--- | --- | ||
行 91: | 行 65: | ||
* '''學生任務''':設計並發放問卷,蒐集成人語音偏好與焦慮情境資料 | * '''學生任務''':設計並發放問卷,蒐集成人語音偏好與焦慮情境資料 | ||
* 📌'''研究資料產出''':需求量化數據 | * 📌'''研究資料產出''':需求量化數據 | ||
* 📚 工具: [Google | * 📚 工具: [Google 表單](https://workspace.google.com/intl/zh-TW/products/forms/)、[KoboToolbox](https://www.kobotoolbox.org/) | ||
--- | --- | ||
行 107: | 行 73: | ||
* '''學生任務''':建立Persona與敘事情境圖 | * '''學生任務''':建立Persona與敘事情境圖 | ||
* 📌'''研究資料產出''':質性敘述資料 | * 📌'''研究資料產出''':質性敘述資料 | ||
* 📚 工具: [Miro](https://miro.com/)、[Canvanizer](https://canvanizer.com/) | * 📚 工具: [Miro](https://miro.com/whiteboard/)、[Canvanizer](https://canvanizer.com/) | ||
--- | --- | ||
行 124: | 行 81: | ||
* '''學生任務''':撰寫初步腳本,進行使用者訪談 | * '''學生任務''':撰寫初步腳本,進行使用者訪談 | ||
* 📌'''研究資料產出''':逐字稿與主題分析 | * 📌'''研究資料產出''':逐字稿與主題分析 | ||
* 📚 工具: [Otter.ai](https://otter.ai)、[Obsidian](https://obsidian.md/) | * 📚 工具: [Otter.ai](https://otter.ai)、[Obsidian](https://obsidian.md/) | ||
--- | --- | ||
行 131: | 行 88: | ||
* '''老師講授''':TTS工具介紹與語音合成技巧 | * '''老師講授''':TTS工具介紹與語音合成技巧 | ||
* '''學生任務''':產出三段安撫語音樣本並比較語音風格 | * '''學生任務''':產出三段安撫語音樣本並比較語音風格 | ||
* 📚 工具: [openai.fm](https://openai.fm)、[pyttsx3 | * 📚 工具: [openai.fm](https://openai.fm)、[pyttsx3 (PyPI)](https://pypi.org/project/pyttsx3/)、[Web Speech API (MDN)](https://developer.mozilla.org/en-US/docs/Web/API/Web_Speech_API) | ||
--- | --- | ||
行 150: | 行 107: | ||
* '''老師講授''':語音觸發 → 語音反應 → 行為回饋邏輯流程 | * '''老師講授''':語音觸發 → 語音反應 → 行為回饋邏輯流程 | ||
* '''學生任務''':繪製語音互動邏輯流程圖 | * '''學生任務''':繪製語音互動邏輯流程圖 | ||
* 📚 工具: [ | * 📚 工具: [draw.io / diagrams.net](https://app.diagrams.net/) | ||
--- | --- | ||
行 157: | 行 114: | ||
* '''老師講授''':多感官整合概念與設計手法 | * '''老師講授''':多感官整合概念與設計手法 | ||
* '''學生任務''':設計一組「語音+光/震動」安撫模擬場景 | * '''學生任務''':設計一組「語音+光/震動」安撫模擬場景 | ||
* 📚 工具: [p5.js](https://p5js.org/) | * 📚 工具: [p5.js](https://p5js.org/) | ||
--- | --- | ||
行 164: | 行 121: | ||
* '''老師講授''':如何用個人電腦實現語音播放模組(openai.fm、TTS API、Python / JS 範例) | * '''老師講授''':如何用個人電腦實現語音播放模組(openai.fm、TTS API、Python / JS 範例) | ||
* '''學生任務''':在自己的電腦上實作語音播放,完成初步安撫語音裝置模擬 | * '''學生任務''':在自己的電腦上實作語音播放,完成初步安撫語音裝置模擬 | ||
* 📚 工具: [openai.fm](https://openai.fm)、[pyttsx3](https://pypi.org/project/pyttsx3/)、[Web Speech API](https://developer.mozilla.org/en-US/docs/Web/API/Web_Speech_API) | * 📚 工具: [openai.fm](https://openai.fm)、[pyttsx3](https://pypi.org/project/pyttsx3/)、[Web Speech API](https://developer.mozilla.org/en-US/docs/Web/API/Web_Speech_API) | ||
--- | --- | ||
行 171: | 行 128: | ||
* '''老師講授''':互動事件設計(按鍵、滑鼠、語音指令)與語音觸發邏輯 | * '''老師講授''':互動事件設計(按鍵、滑鼠、語音指令)與語音觸發邏輯 | ||
* '''學生任務''':將語音播放與互動設計結合,在電腦端完成一個可操作的安撫語音原型 | * '''學生任務''':將語音播放與互動設計結合,在電腦端完成一個可操作的安撫語音原型 | ||
* 📚 工具: [p5.js](https://p5js.org/)、[Electron | * 📚 工具: [p5.js](https://p5js.org/)、[Electron (官方)](https://electronjs.org/) | ||
--- | --- |
於 2025年9月21日 (日) 20:24 的修訂
感性科技與產品設計課程說明
本課程以「安撫」作為感性體驗的核心概念,結合感性工學與人工智慧語音應用,探討如何透過語音內容、語調、互動腳本與情境模擬來設計出能安撫情緒的產品。課程將導入AI語音生成(如TTS、情緒語音)、語意對話設計、五感互動整合等技術,並強調使用者情緒分析與互動迴路設計,最終完成一項具安撫功能的互動語音產品原型。
課程目標
- 理解感性工學與情緒安撫的理論與設計方法
- 學習AI語音生成與語意設計技術
- 掌握問卷、訪談、情緒測量等研究方法
- 製作一件具安撫功能的AI語音互動產品原型
- 整理可用於研討會論文的研究資料與成果
---
講義
每週進度
第1週|課程導論:AI語音也能安撫你?
- 老師講授:課程介紹、安撫作為感性設計主題、AI語音應用實例
- 學生任務:體驗AI語音應用,紀錄安撫感受
- 📚 技術資源:
- [NoteGPT TTS(官方)](https://notegpt.io/text-to-speech)
- [openai.fm(官方 Demo)](https://openai.fm)
---
第2週|感性工學與語音感受基礎
- 老師講授:感性工學概念、SD法原理、聲音與情緒對應關係
- 學生任務:建立「安撫語音」的SD詞彙初步清單
- 📌研究資料產出:安撫相關感性詞彙庫
SD法基礎說明(學生需閱讀): 1. 確定研究對象(語音樣本)。 2. 建立詞對(如「溫暖-冷漠」、「安心-不安」、「柔和-刺耳」)。 3. 設計量表(5或7點)。 4. 受測者聽語音後進行評分。 5. 整理數據,繪製圖表分析結果。
📚 參考資料(中文):
- 林銘泉(2013)。〈整合感性語意差異的顧客需求設計分析〉。[PDF](https://nhuir.nhu.edu.tw/bitstream/987654321/18616/1/1022221E343005.pdf)
- 曾國維、林靖(2010)。〈以語意差異法評價建築立面意象〉。《設計學報》。〔[TCI 索引頁](https://tci.ncl.edu.tw/cgi-bin/gs32/gsweb.cgi?o=dnclresource&s=id%3D%22A11002006%22.)〕
- 辜婷資(2013)。〈心理因素對環境色彩喜好之研究〉。文化大學碩論。[PDF](https://ir.lib.pccu.edu.tw/bitstream/987654321/25449/2/fb150116132242.pdf)
---
第3週|SD法調查實作:語音樣本分析
- 老師講授:SD法問卷設計與調查流程
- 學生任務:以 openai.fm 生成語音(不同語調/語速),進行SD法評分測試
- 📌研究資料產出:語音樣本 × 感性詞彙 × SD評分表
操作流程(學生需依此完成作業): 1. 使用 [openai.fm](https://openai.fm) 生成至少3種語音。 2. 建立 6-8 對詞語量表,用 Google 表單製作問卷([產品頁](https://workspace.google.com/intl/zh-TW/products/forms/)、[表單入口](https://docs.google.com/forms/))。 3. 邀請至少10位受測者填寫。 4. 匯出數據,計算平均值並繪製雷達圖。 5. 討論不同語音樣本的安撫效果差異。
📚 參考資料(中文):
- 吳明隆(2010)。《問卷統計分析實務》。臺北:五南。
---
第4週|成人焦慮與安撫語音需求問卷設計
- 老師講授:焦慮情境研究、問卷設計案例說明
- 學生任務:設計並發放問卷,蒐集成人語音偏好與焦慮情境資料
- 📌研究資料產出:需求量化數據
- 📚 工具: [Google 表單](https://workspace.google.com/intl/zh-TW/products/forms/)、[KoboToolbox](https://www.kobotoolbox.org/)
---
第5週|Persona建構與語音使用情境敘事
- 老師講授:Persona建構方法與情境設計
- 學生任務:建立Persona與敘事情境圖
- 📌研究資料產出:質性敘述資料
- 📚 工具: [Miro](https://miro.com/whiteboard/)、[Canvanizer](https://canvanizer.com/)
---
第6週|語音腳本設計與訪談調查
- 老師講授:腳本撰寫原則、半結構式訪談教學
- 學生任務:撰寫初步腳本,進行使用者訪談
- 📌研究資料產出:逐字稿與主題分析
- 📚 工具: [Otter.ai](https://otter.ai)、[Obsidian](https://obsidian.md/)
---
第7週|AI語音生成工具實作
- 老師講授:TTS工具介紹與語音合成技巧
- 學生任務:產出三段安撫語音樣本並比較語音風格
- 📚 工具: [openai.fm](https://openai.fm)、[pyttsx3(PyPI)](https://pypi.org/project/pyttsx3/)、[Web Speech API(MDN)](https://developer.mozilla.org/en-US/docs/Web/API/Web_Speech_API)
---
第8週|期中簡報準備
- 老師講授:簡報架構設計、資料統整方式
- 學生任務:彙整設計歷程與研究資料,製作簡報
---
第9週|期中簡報發表
- 學生任務:小組發表:需求分析、Persona、語音Demo
- 老師講評:語音風格、邏輯架構、研究深度
---
第10週|語音互動邏輯與使用流程設計
- 老師講授:語音觸發 → 語音反應 → 行為回饋邏輯流程
- 學生任務:繪製語音互動邏輯流程圖
- 📚 工具: [draw.io / diagrams.net](https://app.diagrams.net/)
---
第11週|聲音以外的安撫設計:光與震動
- 老師講授:多感官整合概念與設計手法
- 學生任務:設計一組「語音+光/震動」安撫模擬場景
- 📚 工具: [p5.js](https://p5js.org/)
---
第12週|產品原型製作 I:電腦端語音播放模組
- 老師講授:如何用個人電腦實現語音播放模組(openai.fm、TTS API、Python / JS 範例)
- 學生任務:在自己的電腦上實作語音播放,完成初步安撫語音裝置模擬
- 📚 工具: [openai.fm](https://openai.fm)、[pyttsx3](https://pypi.org/project/pyttsx3/)、[Web Speech API](https://developer.mozilla.org/en-US/docs/Web/API/Web_Speech_API)
---
第13週|產品原型製作 II:語音互動整合
- 老師講授:互動事件設計(按鍵、滑鼠、語音指令)與語音觸發邏輯
- 學生任務:將語音播放與互動設計結合,在電腦端完成一個可操作的安撫語音原型
- 📚 工具: [p5.js](https://p5js.org/)、[Electron(官方)](https://electronjs.org/)
---
第14週|使用者測試與情緒評估設計
- 老師講授:SAM圖/情緒問卷設計、觀察與紀錄技巧
- 學生任務:執行使用者測試,紀錄情緒變化
- 📌研究資料產出:情緒評估量表 + 文字觀察紀錄
---
第15週|資料分析與語音設計優化
- 老師講授:測試回饋分類、設計優化邏輯
- 學生任務:根據資料修正語音內容與互動設計
- 📌研究資料產出:使用者回饋 × 設計修改對照表
---
第16週|成果整合與論文初稿資料彙整
- 老師講授:研究摘要撰寫與展示資料編排
- 學生任務:完成摘要+設計說明書+海報草圖
---
第17週|模擬發表與展場布置
- 老師講授:發表技巧與展覽設計說明
- 學生任務:模擬發表與場地佈置演練
---
第18週|期末成果展《聲之慰藉》+資料繳交
- 學生任務:
- 現場展示AI語音互動產品
- 口頭發表設計歷程與使用者測試結果
- 繳交研究素材包(問卷、訪談、測試數據)
- 老師任務:評分與彙整可作為論文使用的資料集
---
研究資料包繳交項目
- SD法分析結果(語音樣本 × 感性詞彙)
- 問卷結果與圖表
- Persona與敘事圖
- 訪談逐字稿與主題分析
- 使用者測試前後評估資料
- 語音腳本+互動流程圖
- 設計修改紀錄與對照說明
- 電腦端語音互動原型(影片或可執行程式)
- 海報、簡報、設計摘要