หมายเหตุ
การเข้าถึงหน้านี้ต้องได้รับการอนุญาต คุณสามารถลอง ลงชื่อเข้าใช้หรือเปลี่ยนไดเรกทอรีได้
การเข้าถึงหน้านี้ต้องได้รับการอนุญาต คุณสามารถลองเปลี่ยนไดเรกทอรีได้
นำไปใช้กับ: Dynamics 365 Contact Center—แบบฝัง, Dynamics 365 Contact Center— แบบสแตนด์อโลน และ Dynamics 365 Customer Service
บทความคำถามที่ถามบ่อยนี้ช่วยตอบคำถามเกี่ยวกับการใช้ AI อย่างมีความรับผิดชอบในคุณลักษณะ copilot ใน Customer Service
Copilot ใน Dynamics 365 Customer Service คืออะไร
Copilot เป็นเครื่องมือที่ขับเคลื่อนด้วย AI ที่เปลี่ยนประสบการณ์ เจ้าหน้าที่บริการลูกค้า (เจ้าหน้าที่บริการ หรือ เจ้าหน้าที่) ใน Dynamics 365 Customer Service โดยให้ความช่วยเหลือด้าน AI แบบเรียลไทม์ซึ่งสามารถช่วยให้ตัวแทนแก้ไขปัญหาได้เร็วขึ้นจัดการกรณีต่าง ๆ ได้อย่างมีประสิทธิภาพมากขึ้นและทําให้งานที่ต้องใช้เวลาเป็นอัตโนมัติช่วยให้พวกเขาสามารถมุ่งเน้นไปที่การให้บริการที่มีคุณภาพสูงแก่ลูกค้าของพวกเขา
ความสามารถของระบบนี้คืออะไร
Copilot มีคุณลักษณะหลักๆ ดังต่อไปนี้:
ถามคำถาม: เป็นแท็บแรกที่เจ้าหน้าที่บริการจะเห็นเมื่อเปิดใช้งานบานหน้าต่างวิธีใช้ Copilot เป็นอินเทอร์เฟซการสนทนากับ Copilot ซึ่งช่วยให้คำตอบตามบริบทสำหรับคำถามของเจ้าหน้าที่ การตอบของ Copilot อ้างอิงจากแหล่งความรู้ทั้งภายในและภายนอกที่องค์กรของคุณจัดเตรียมไว้ให้ในระหว่างการตั้งค่า
เขียนอีเมล: เป็นแท็บที่สองในบานหน้าต่างวิธีใช้ Copilot ซึ่งช่วยให้เจ้าหน้าที่สร้างการตอบกลับอีเมลได้อย่างรวดเร็วตามบริบทของกรณี ซึ่งช่วยลดเวลาที่ผู้ใช้ต้องใช้ในการสร้างอีเมล
ร่างการตอบแชท: ช่วยให้เจ้าหน้าที่สร้างการตอบในคลิกเดียวเพื่อสนทนาด้วยการส่งข้อความดิจิทัลที่กำลังดำเนินอยู่จากแหล่งความรู้ที่องค์กรของคุณกำหนดค่า
สรุปกรณี: Copilot ให้ข้อมูลสรุปของกรณีแก่เจ้าหน้าที่ในฟอร์มกรณี เพื่อให้พวกเขาสามารถติดตามรายละเอียดที่สำคัญของกรณีได้อย่างรวดเร็ว
สรุปการสนทนา: Copilot ให้ข้อมูลสรุปการสนทนาแก่เจ้าหน้าที่ในประเด็นสำคัญตลอดการเดินทางของลูกค้า เช่น การส่งต่อให้เจ้าหน้าที่เสมือน การโอนและตามความต้องการ
สร้างร่างความรู้จากกรณี (พรีวิว): Copilot สร้างร่างบทความให้ความรู้เป็นข้อเสนอที่อิงตามข้อมูลจากกรณี เจ้าหน้าที่สามารถตรวจสอบและปรับแต่งร่างได้โดยให้คำแนะนำในการแก้ไขแก่ Copilot แล้วบันทึก
สรุปเรกคอร์ดที่กำหนดเอง: Copilot ให้ข้อมูลสรุปของเรกคอร์ดตามฟิลด์ที่ผู้ดูแลระบบกำหนดค่าสำหรับตารางแบบกำหนดเองแก่เจ้าหน้าที่ เพื่อให้เจ้าหน้าที่สามารถติดตามรายละเอียดที่สำคัญของเรกคอร์ดการสนับสนุนได้อย่างรวดเร็ว
สร้างหมายเหตุการแก้ปัญหา: Copilot มีเจ้าหน้าที่ที่ให้ข้อมูลสรุปของรายละเอียดกรณี อีเมล และหมายเหตุที่เชื่อมโยงกับกรณีแก่เจ้าหน้าที่บริการบนแท็บ ถามคำถาม เพื่อให้พวกเขาสามารถปิดกรณีหรือเหตุการณ์ได้เร็วขึ้น
คาดการณ์โดยใช้การเลือกวิธีการที่เหมาะสมที่สุด (ตัวอย่าง): ปรับปรุงสถานการณ์การคาดการณ์โดยการแนะนําและใช้วิธีการที่เหมาะสมที่สุดตามการป้อนข้อมูลในสถานการณ์สมมติ ผู้ดูแลระบบสามารถเลือกระหว่างการตั้งค่าและเลือกระหว่างวิธีดั้งเดิมและตัวเลือกที่ใช้ AI ได้ นอกจากนี้ ผู้ควบคุมยังสามารถเรียกใช้การคาดการณ์ตามความต้องการแทนที่จะรอการทํางานตามกําหนดเวลา ซึ่งทําให้ทีมมีความยืดหยุ่นและข้อมูลเชิงลึกได้เร็วขึ้น
วัตถุประสงค์ของระบบคืออะไร
Copilot ใน Customer Service มีวัตถุประสงค์เพื่อช่วยให้เจ้าหน้าที่บริการลูกค้าทำงานได้อย่างมีประสิทธิภาพและประสิทธิผลมากขึ้น เจ้าหน้าที่บริการลูกค้าสามารถใช้คำตอบตามความรู้ของ Copilot เพื่อประหยัดเวลาในการค้นหาบทความให้ความรู้และร่างคำตอบ บทสรุป Copilot ได้รับการออกแบบมาเพื่อสนับสนุนตัวแทนในการเพิ่มกรณีและการสนทนาอย่างรวดเร็ว เนื้อหาที่สร้างโดย Copilot ใน Customer Service ไม่ได้มีวัตถุประสงค์ให้ใช้โดยไม่มีการตรวจสอบหรือการกำกับดูแลจากมนุษย์
Copilot ใน Customer Service ได้รับการประเมินอย่างไร เมตริกใดที่ใช้วัดประสิทธิภาพ
Copilot ใน Customer Service ได้รับการประเมินเทียบกับสถานการณ์จริงกับลูกค้าทั่วโลกผ่านแต่ละช่วงของการออกแบบ การพัฒนา และการเปิดตัว เราได้ประเมินตัวชี้วัดเชิงปริมาณและเชิงคุณภาพต่างๆ เกี่ยวกับ Copilot รวมถึงความแม่นยำ ประโยชน์ และความไว้วางใจของตัวแทน เรียนรู้เพิ่มเติมใน รายงานความโปร่งใสของ AI ที่รับผิดชอบ
Copilot ใน Customer Service มีข้อจำกัดอะไรบ้าง ผู้ใช้จะลดผลกระทบของข้อจำกัดของ Copilot ได้อย่างไร
ความสามารถที่อิงตามความรู้ของ Copilot เช่น การถามคำถาม การเขียนอีเมล และการร่างข้อความตอบกลับ แรงสนับสนุนด้วยบทความความรู้ที่มีคุณภาพสูงและทันสมัย หากไม่มีบทความให้ความรู้เหล่านี้ ผู้ใช้มักจะพบกับการตอบของ Copilot ที่ไม่เป็นข้อเท็จจริง
การลดโอกาสในการเห็นการตอบสนองที่ไม่ใช่ข้อเท็จจริงจาก Copilot เป็นสิ่งสําคัญที่ Microsoft ต้องจ้างแนวทางปฏิบัติในการจัดการความรู้ที่แข็งแกร่งเพื่อให้แน่ใจว่าความรู้ทางธุรกิจที่เชื่อมต่อกับ Copilot มีคุณภาพสูงและทันสมัย
ปัจจัยการดำเนินงานและการตั้งค่าใดที่ช่วยให้สามารถใช้ระบบได้อย่างมีประสิทธิภาพและมีความรับผิดชอบ
ตรวจสอบผลลัพธ์จาก Copilot เสมอ
Copilot สร้างจากเทคโนโลยีโมเดลภาษาขนาดใหญ่ ซึ่งมีความน่าจะเป็นตามธรรมชาติ เมื่อนำเสนอด้วยข้อความอินพุต โมเดลจะคำนวณความน่าจะเป็นของแต่ละคำในข้อความนั้นตามคำที่อยู่ก่อนหน้า จากนั้นโมเดลจะเลือกคำที่น่าจะตามมามากที่สุด อย่างไรก็ตาม เนื่องจากโมเดลอิงอยู่กับความน่าจะเป็น จึงไม่สามารถพูดได้อย่างแน่ชัดว่าคำถัดไปที่ถูกต้องคืออะไร แต่ทำให้เราคาดเดาได้ดีที่สุดโดยอิงจากการแจกแจงความน่าจะเป็นที่ได้เรียนรู้จากข้อมูลที่ฝึกมา Copilot ใช้วิธีการที่เรียกว่าการสร้างพื้นฐาน ซึ่งเกี่ยวข้องกับการเพิ่มข้อมูลเพิ่มเติมให้กับอินพุตเพื่อปรับบริบทของเอาต์พุตไปยังองค์กรของคุณ ใช้การค้นหาความหมายเพื่อทำความเข้าใจอินพุตและดึงเอกสารภายในองค์กรที่เกี่ยวข้องและผลการค้นหาเว็บสาธารณะที่เชื่อถือได้ และแนะนำโมเดลภาษาให้ตอบสนองตามเนื้อหานั้น แม้ว่าวิธีนี้จะมีประโยชน์ในการทำให้มั่นใจว่าการตอบของ Copilot จะเป็นไปตามข้อมูลขององค์กร แต่สิ่งสำคัญคือต้องตรวจสอบผลลัพธ์ที่สร้างโดย Copilot ก่อนใช้งานเสมอ
รับประโยชน์สูงสุดจาก Copilot
เมื่อคุณโต้ตอบกับ Copilot สิ่งสำคัญคือต้องจำไว้ว่าโครงสร้างของคำถามสามารถส่งผลต่อคำตอบที่ Copilot มอบให้ได้อย่างมาก ในการโต้ตอบกับ Copilot อย่างมีประสิทธิภาพ สิ่งสำคัญคือต้องถามคำถามที่ชัดเจนและเฉพาะเจาะจง ให้บริบทเพื่อช่วยให้ AI เข้าใจเจตนาของคุณได้ดีขึ้น ถามคำถามทีละข้อ และหลีกเลี่ยงคำศัพท์ทางเทคนิคเพื่อความชัดเจนและเข้าถึงได้
ถามคำถามที่ชัดเจนและเฉพาะเจาะจง
เจตนาที่ชัดเจนเป็นสิ่งสำคัญเมื่อถามคำถาม เนื่องจากจะส่งผลโดยตรงต่อคุณภาพของการตอบ ตัวอย่างเช่น การถามคําถามที่กว้างเช่น "ทําไมเครื่องชงกาแฟของลูกค้าจึงไม่เริ่มต้น" มีแนวโน้มน้อยที่จะให้ผลลัพธ์เป็นคําตอบที่มีประโยชน์เมื่อเทียบกับคําถามที่เฉพาะเจาะจงมากขึ้น เช่น "ฉันสามารถใช้ขั้นตอนใดในการกําหนดสาเหตุที่เครื่องชงกาแฟของลูกค้าไม่เริ่มต้นขึ้น"
อย่างไรก็ตาม การถามคําถามที่มีรายละเอียดมากยิ่งขึ้น เช่น "ฉันสามารถใช้ขั้นตอนใดเพื่อพิจารณาว่าทําไมเครื่องชงกาแฟ Contoso 900 ที่มีการจัดอันดับความดัน 5 บาร์ไม่ได้เริ่มต้นขึ้น" จํากัดขอบเขตของปัญหาให้แคบลง และให้บริบทมากขึ้น ซึ่งนําไปสู่การตอบสนองที่ถูกต้องและเป็นเป้าหมายมากขึ้น
เพิ่มบริบท
การเพิ่มบริบทช่วยให้ระบบ AI การสนทนาเข้าใจเจตนาของผู้ใช้ได้ดีขึ้น และให้คำตอบที่ถูกต้องและตรงประเด็นมากขึ้น หากไม่มีบริบท ระบบอาจเข้าใจคำถามของผู้ใช้ผิดหรือให้คำตอบทั่วไปหรือไม่เกี่ยวข้อง
ตัวอย่างเช่น "เพราะเหตุใดเครื่องชงกาแฟจึงไม่เริ่มต้นขึ้น?" ส่งผลให้มีการตอบกลับทั่วไปเมื่อเปรียบเทียบกับคําถามที่มีบริบทเพิ่มเติม เช่น "เมื่อเร็ว ๆ นี้ ลูกค้าเริ่มต้นโหมดขจัดตะกวดในเครื่องชงกาแฟของพวกเขาและเสร็จสิ้นการแยกประเภทได้สําเร็จ พวกเขายังเห็นไฟแสดงการทำงานกะพริบสามครั้งในตอนท้ายเพื่อยืนยันว่าการขจัดคราบตะกรันเสร็จสิ้นแล้ว ทำไมพวกเขาไม่สามารถเปิดเครื่องชงกาแฟได้อีกต่อไป"
การเพิ่มบริบทในลักษณะนี้มีความสำคัญเนื่องจากช่วยให้ Copilot การสนทนาเข้าใจเจตนาของผู้ใช้ได้ดีขึ้น และให้คำตอบที่ถูกต้องและตรงประเด็นมากขึ้น
หลีกเลี่ยงคำศัพท์ทางเทคนิคหากเป็นไปได้
เราขอแนะนําให้คุณหลีกเลี่ยงการใช้คําศัพท์และชื่อทรัพยากรทางเทคนิคสูงเมื่อคุณโต้ตอบกับ Copilot เนื่องจากระบบอาจไม่เข้าใจอย่างแม่นยําหรือเหมาะสมเสมอไป การใช้ภาษาที่เรียบง่ายและเป็นธรรมชาติช่วยให้แน่ใจว่าระบบสามารถเข้าใจเจตนาของผู้ใช้ได้อย่างถูกต้อง และให้คำตอบที่ชัดเจนและมีประโยชน์
ตัวอย่างเช่น คุณสามารถทําซ้ํา "ลูกค้าไม่สามารถ SSH ลงใน VM ได้หลังจากเปลี่ยนการกําหนดค่าไฟร์วอลล์" เป็น "ลูกค้าเปลี่ยนกฎไฟร์วอลล์บนเครื่องเสมือนของพวกเขา แต่พวกเขาไม่สามารถเชื่อมต่อโดยใช้ Secure Shell (SSH) ได้อีกต่อไป คุณช่วยได้ไหม"
เมื่อทำตามคำแนะนำ ตัวแทนสามารถปรับปรุงปฏิสัมพันธ์กับ Copilot และเพิ่มโอกาสในการได้รับคำตอบที่ถูกต้องและมั่นใจจากมัน
การสรุปหรือการขยายคำตอบ
บางครั้งการตอบจาก Copilot อาจนานกว่าที่คาดไว้ นี่อาจเป็นกรณีที่ เจ้าหน้าที่ อยู่ในการสนทนาแชทสดกับลูกค้าและจำเป็นต้องส่งคำตอบที่กระชับเมื่อเทียบกับการส่งการตอบกลับทางอีเมล ในกรณีดังกล่าว การขอให้ Copilot "สรุปคำตอบ" จะส่งผลให้ได้คำตอบที่กระชับต่อคำถาม ในทํานองเดียวกัน ถ้ามีความจําเป็นสําหรับรายละเอียดเพิ่มเติม ขอให้ Copilot ส่งผลลัพธ์ "ให้รายละเอียดเพิ่มเติม" ในคําตอบที่มีรายละเอียดเพิ่มเติมสําหรับคําถามของคุณ หากการตอบสนองถูกตัดทอน ให้พิมพ์ "ดําเนินการต่อ" จะแสดงส่วนเหลือของการตอบสนอง
ฉันสามารถมีอิทธิพลต่อการตอบสนองที่สร้างขึ้นโดย Copilot ได้อย่างไร? ฉันสามารถปรับแต่ง LLM พื้นฐานได้หรือไม่
ไม่สามารถปรับแต่งโมเดลภาษาขนาดใหญ่ (LLM) ได้โดยตรง การตอบของ Copilot อาจได้รับอิทธิพลจากการอัปเดตเอกสารต้นฉบับ เนื้อหาคําติชมทั้งหมดจากการตอบสนองของ Copilot จะถูกเก็บไว้ สามารถสร้างรายงานได้โดยใช้ข้อมูลนี้เพื่อกำหนดแหล่งข้อมูลที่ต้องอัปเดต ควรมีกระบวนการในการตรวจสอบข้อมูลคําติชมอย่างสม่ำเสมอ และตรวจสอบให้แน่ใจว่าบทความความรู้ให้ข้อมูลที่ดีที่สุดและอัปเดตล่าสุดสำหรับ Copilot
รูปแบบการรักษาความปลอดภัยข้อมูลสำหรับ Copilot คืออะไร
Copilot บังคับใช้ตัวควบคุมการเข้าถึงตามบทบาท (RBAC) ที่กําหนดไว้ และยึดตามโครงสร้างความปลอดภัยที่มีอยู่ทั้งหมด ดังนั้น ตัวแทนจึงไม่สามารถดูข้อมูลที่พวกเขาไม่สามารถเข้าถึงได้ นอกจากนี้ เฉพาะแหล่งข้อมูลที่ตัวแทนมีสิทธิ์เข้าถึง จะถูกใช้สําหรับการสร้างการตอบสนองของ Copilot
Copilot ตัดสินได้อย่างไรว่าเนื้อหาไม่เหมาะสมหรือเป็นอันตราย
Copilot พิจารณาว่าเนื้อหาเป็นอันตรายหรือไม่ผ่านระบบการให้คะแนนความรุนแรงตามหมวดหมู่ที่แตกต่างกันของเนื้อหาที่ไม่เหมาะสม เรียนรู้เพิ่มเติมในประเภทอันตรายในความปลอดภัยของเนื้อหา Azure AI
การประมวลผลและการดึงข้อมูลเพื่อสร้างการตอบของ Copilot เกิดขึ้นที่ใด
Copilot ไม่เรียกบริการ OpenAI สาธารณะที่ขับเคลื่อน ChatGPT Copilot ใน Customer Service ใช้ Microsoft Azure OpenAI Service ในผู้เช่าที่มีการจัดการของ Microsoft การประมวลผลและการดึงข้อมูลทั้งหมดเกิดขึ้นภายในผู้เช่าที่มีการจัดการของ Microsoft นอกจากนี้ ข้อมูลของลูกค้าจะไม่ถูกแชร์และจะไม่ถูกป้อนกลับเข้าไปในโมเดลสาธารณะ
ข้อจำกัดด้านภาษาสำหรับบทสรุปที่ Copilot สร้างขึ้นจากกรณีและการสนทนามีอะไรบ้าง
รองรับหลายภาษาในการสรุปที่สร้างโดย Copilot จากกรณีและการสนทนา คุณภาพของบทสรุปเหล่านี้คาดว่าจะสูงที่สุดในภาษาอังกฤษในขณะที่ในภาษาอื่น ๆ คุณภาพคาดว่าจะดีขึ้นเมื่อเวลาผ่านไป เรียนรู้เกี่ยวกับภาษาที่รองรับใน การสนับสนุนภาษาสำหรับลักษณะ Copilot
โมเดลได้รับการทดสอบและตรวจสอบอย่างต่อเนื่องหรือไม่? ถ้าเป็นเช่นนั้นบ่อยแค่ไหน? ทำการทดสอบอะไรบ้าง?
โมเดลได้รับการทดสอบคุณภาพและเนื้อหาที่เป็นอันตรายทุกครั้งที่มีการเปลี่ยนแปลงการโต้ตอบหรือเวอร์ชันของโมเดล เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
โมเดลได้รับการตรวจสอบบ่อยแค่ไหนเพื่อตรวจจับการเสื่อมประสิทธิภาพ
Azure OpenAI เป็นโฮสต์และจัดการแบบจําลอง AI GPT เชิงสร้าง การใช้โมเดลในสถานการณ์การบริการลูกค้าถูกผูกมัดโดยแนวทางปฏิบัติของ AI ที่รับผิดชอบและการตรวจสอบคณะกรรมการความปลอดภัยในการปรับใช้ การเปลี่ยนแปลงใดๆ ในเวอร์ชันของโมเดลหรือพร้อมท์พื้นฐานจะได้รับการตรวจสอบคุณภาพและเนื้อหาที่เป็นอันตราย เรียนรู้เพิ่มเติมใน รายงานความโปร่งใสของ AI ที่รับผิดชอบ
ผลิตภัณฑ์หรือบริการใช้มากกว่าหนึ่งโมเดลหรือระบบของแบบจำลองที่ขึ้นต่อกันหรือไม่
คุณลักษณะต่างๆ ในระบบอาจใช้โมเดลของบริการ Azure OpenAI เวอร์ชันต่างๆ เรียนรู้เพิ่มเติมใน โมเดลของบริการ Azure OpenAI
Copilot ใช้ผลิตภัณฑ์หรือบริการที่ไม่ใช่ของ Microsoft หรือไม่ และมีคู่มือสำหรับโมเดลนี้หรือไม่
Copilot สร้างขึ้นโดยใช้ Azure OpenAI ซึ่งเป็นบริการ AI ที่มีการจัดการเต็มรูปแบบ ซึ่งผสานรวม OpenAI กับโมเดลการกรองเนื้อหาและการตรวจจับความไม่เหมาะสมที่พัฒนาโดย Microsoft เรียนรู้เพิ่มเติมใน บันทึกความโปร่งใสสำหรับ Azure OpenAI
มีกระบวนการที่กำหนดไว้เพื่อสื่อสารการเปลี่ยนแปลงใดๆ ในโมเดล โมเดลอัปสตรีม หรือเอาต์พุตที่ใช้จาก AI/ML หรือโซลูชันโมเดลอื่นๆ หรือไม่
การเปลี่ยนแปลงที่วางแผนไว้ในคุณลักษณะ Copilot จะได้รับการสื่อสารผ่านเอกสารสาธารณะ อย่างไรก็ตาม การเปลี่ยนแปลงเกี่ยวกับเวอร์ชันโมเดลหรือพร้อมท์จะถูกควบคุมโดยกระบวนการ AI ที่รับผิดชอบภายใน การเปลี่ยนแปลงเหล่านี้ไม่ได้รับการสื่อสาร เนื่องจากเป็นการปรับปรุงการทำงานที่เพิ่มขึ้นและต่อเนื่อง
คำติชมแบบคำต่อคำของผู้ใช้มีให้สำหรับ Microsoft เพื่อปรับปรุงผลิตภัณฑ์หรือไม่
ไม่ใช่
Microsoft มีนโยบายและขั้นตอนที่กำหนดและแยกแยะบทบาทและความรับผิดชอบของมนุษย์ที่หลากหลายเมื่อพวกเขาโต้ตอบหรือตรวจสอบระบบ AI หรือไม่?
ใช่ ในกระบวนการ AI ที่รับผิดชอบ ผู้มีส่วนได้ส่วนเสียและผู้ใช้ที่เกี่ยวข้องทั้งหมดจะได้รับการพิจารณา และจะมีการหารือเกี่ยวกับการใช้งานหรือการใช้ระบบโดยไม่ได้ตั้งใจ ขึ้นอยู่กับสถานการณ์ที่ระบุการบรรเทาที่จำเป็นจะถูกนำเข้ามาภายในผลิตภัณฑ์หรือผ่านทางเอกสารประกอบ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft ระบุและจัดทำเอกสารแนวทางในการมีส่วนร่วม รวบรวม และรวมข้อมูลจากผู้ใช้ปลายทางรายอื่นและผู้มีส่วนได้ส่วนเสียหลักเพื่อช่วยในการตรวจสอบผลกระทบที่อาจเกิดขึ้นและความเสี่ยงที่เกิดขึ้นใหม่อย่างต่อเนื่องหรือไม่
ใช่ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft จัดทำเอกสาร ฝึกฝน และวัดแผนการตอบสนองต่อเหตุการณ์สำหรับเหตุการณ์ของระบบ AI รวมถึงการวัดการตอบสนองและเวลาหยุดทำงานหรือไม่
ใช่ กระบวนการ AI ที่รับผิดชอบกําหนดให้ทีมมีแผนตอบสนองต่อเหตุการณ์สําหรับปัญหา AI ซึ่งคล้ายกับกระบวนการสําหรับปัญหาการทํางาน ทีมคุณลักษณะจะติดตามประสิทธิภาพและความน่าเชื่อถือของระบบอย่างต่อเนื่อง เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft กำหนดขั้นตอนในการแบ่งปันข้อมูลเกี่ยวกับการเกิดข้อผิดพลาดและผลกระทบด้านลบกับผู้เกี่ยวข้อง ผู้ปฏิบัติงาน ผู้ใช้ และผู้ได้รับผลกระทบที่เกี่ยวข้องหรือไม่
ใช่ สำหรับปัญหาที่มีความรุนแรงสูงทีมคุณลักษณะจะต้องสื่อสารการหยุดทำงานกับลูกค้าที่ได้รับผลกระทบ
Microsoft วัดและตรวจสอบประสิทธิภาพของระบบแบบเรียลไทม์เพื่อให้สามารถตอบสนองได้อย่างรวดเร็วเมื่อตรวจพบเหตุการณ์ของระบบ AI หรือไม่
ใช่ ทีมงานฟีเจอร์จะตรวจสอบประสิทธิภาพและความน่าเชื่อถือของระบบอย่างต่อเนื่อง
Microsoft ทดสอบคุณภาพของคำอธิบายระบบกับผู้ใช้ปลายทางและผู้มีส่วนได้ส่วนเสียอื่นๆ หรือไม่
ใช่ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft ได้กำหนดนโยบายและขั้นตอนสำหรับการตรวจสอบและจัดการกับประสิทธิภาพของระบบโมเดลและความน่าเชื่อถือ รวมถึงอคติและปัญหาด้านความปลอดภัยตลอดวงจรชีวิตของโมเดลเมื่อประเมินระบบ AI สำหรับความเสี่ยงและผลประโยชน์เชิงลบหรือไม่
ใช่ เรียนรู้เพิ่มเติมใน รายงานความโปร่งใสของ AI ที่รับผิดชอบ
Microsoft ดำเนินการประเมินความเป็นธรรมเพื่อจัดการอคติในรูปแบบการคำนวณและสถิติหรือไม่
ใช่ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
Microsoft ตรวจสอบเอาต์พุตของระบบเพื่อหาปัญหาด้านประสิทธิภาพหรืออคติหรือไม่
ใช่ ตัวกรองการควบคุมจะถูกนำไปใช้ในหลายชั้น รวมถึงในเอาต์พุตเพื่อให้แน่ใจว่าไม่มีเนื้อหาที่เป็นอันตรายในการตอบสนอง เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
ระดับความยืดหยุ่นในการทำงานของโมเดลคืออะไร? ตัวอย่างเช่น มีการกู้คืนจากความเสียหายและแผนฉุกเฉินสำหรับกรณีที่โมเดลไม่พร้อมใช้งาน
เช่นเดียวกับบริการ Azure ทั้งหมด การสำรองข้อมูลและการกู้คืนได้รับการสนับสนุนผ่านศูนย์ข้อมูลหลายแห่งเพื่อความพร้อมใช้งานสูง
โมเดลขึ้นอยู่กับ ฝังอยู่ภายในเครื่องมือหรือโซลูชันของบริษัทอื่น ซึ่งทำให้ยากต่อการย้ายโมเดลไปยังสภาพแวดล้อมอื่น (รวมถึงตัวแปรต่างๆ เช่น ผู้ให้บริการโฮสต์ ฮาร์ดแวร์ ระบบซอฟต์แวร์) ที่จะขัดขวางความสามารถในการอธิบายของโมเดลหรือไม่
ไม่ใช่
มีนโยบายการกำกับดูแลรูปแบบที่กำหนดไว้หรือไม่?
ใช่ Azure OpenAI สนับสนุนนโยบายการกํากับดูแลที่กําหนดไว้ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ
มีโปรโตคอลที่จัดตั้งขึ้นและจัดทำเป็นเอกสาร (การอนุญาต ระยะเวลา ประเภท) และการควบคุมการเข้าถึงสำหรับชุดข้อมูลการฝึกอบรมหรือการผลิตที่มี PII ตามนโยบายความเป็นส่วนตัวและการกำกับดูแลข้อมูลหรือไม่
ปัจจุบันไม่มีการฝึกอบรมแบบจำลองดังนั้นจึงไม่มีข้อกำหนดเกี่ยวกับชุดข้อมูล อย่างไรก็ตาม เมื่อเจ้าหน้าที่ฝ่ายบริการลูกค้ามีส่วนร่วมกับ Copilot โดยขึ้นอยู่กับคุณลักษณะ ข้อมูลบริบท (กรณีหรือการสนทนา) จะใช้เพื่อสร้างการตอบกลับ
มีการตรวจสอบการเปิดเผย PII และการอนุมานคุณลักษณะที่ละเอียดอ่อนหรือได้รับการคุ้มครองตามกฎหมายหรือไม่
ใช่ การตรวจสอบความเป็นส่วนตัวจะดําเนินการสําหรับทุกคุณลักษณะ
Microsoft มีกระบวนการในการพิจารณาประเด็นทางกฎหมายและข้อบังคับและข้อกำหนดเฉพาะสำหรับอุตสาหกรรม วัตถุประสงค์ทางธุรกิจ และสภาพแวดล้อมการใช้งานของระบบ AI ที่ถูกนำไปใช้
ใช่ การตรวจสอบทางกฎหมายจะดําเนินการสําหรับทุกคุณลักษณะเพื่อช่วยในข้อกําหนดด้านการควบคุมและข้อกําหนดทางกฎหมายอื่น ๆ
ข้อมูลที่เกี่ยวข้อง
ใช้คุณลักษณะ Copilot
ใช้ Copilot เพื่อสร้างร่างความรู้จากกรณี
ภูมิภาคที่มีให้ใช้งานของ Copilot
คำถามที่ถามบ่อยเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของข้อมูล Copilot ใน Microsoft Power Platform