แชร์ผ่าน


คำถามที่พบบ่อยเกี่ยวกับ AI ที่มีรับผิดชอบสำหรับ Copilot ใน Customer Service

นำไปใช้กับ: Dynamics 365 Contact Center—แบบฝัง, Dynamics 365 Contact Center— แบบสแตนด์อโลน และ Dynamics 365 Customer Service

บทความคำถามที่ถามบ่อยนี้ช่วยตอบคำถามเกี่ยวกับการใช้ AI อย่างมีความรับผิดชอบในคุณลักษณะ copilot ใน Customer Service

Copilot ใน Dynamics 365 Customer Service คืออะไร

Copilot เป็นเครื่องมือที่ขับเคลื่อนด้วย AI ที่เปลี่ยนประสบการณ์ เจ้าหน้าที่บริการลูกค้า (เจ้าหน้าที่บริการ หรือ เจ้าหน้าที่) ใน Dynamics 365 Customer Service โดยให้ความช่วยเหลือด้าน AI แบบเรียลไทม์ซึ่งสามารถช่วยให้ตัวแทนแก้ไขปัญหาได้เร็วขึ้นจัดการกรณีต่าง ๆ ได้อย่างมีประสิทธิภาพมากขึ้นและทําให้งานที่ต้องใช้เวลาเป็นอัตโนมัติช่วยให้พวกเขาสามารถมุ่งเน้นไปที่การให้บริการที่มีคุณภาพสูงแก่ลูกค้าของพวกเขา

ความสามารถของระบบนี้คืออะไร

Copilot มีคุณลักษณะหลักๆ ดังต่อไปนี้:

  • ถามคำถาม: เป็นแท็บแรกที่เจ้าหน้าที่บริการจะเห็นเมื่อเปิดใช้งานบานหน้าต่างวิธีใช้ Copilot เป็นอินเทอร์เฟซการสนทนากับ Copilot ซึ่งช่วยให้คำตอบตามบริบทสำหรับคำถามของเจ้าหน้าที่ การตอบของ Copilot อ้างอิงจากแหล่งความรู้ทั้งภายในและภายนอกที่องค์กรของคุณจัดเตรียมไว้ให้ในระหว่างการตั้งค่า

  • เขียนอีเมล: เป็นแท็บที่สองในบานหน้าต่างวิธีใช้ Copilot ซึ่งช่วยให้เจ้าหน้าที่สร้างการตอบกลับอีเมลได้อย่างรวดเร็วตามบริบทของกรณี ซึ่งช่วยลดเวลาที่ผู้ใช้ต้องใช้ในการสร้างอีเมล

  • ร่างการตอบแชท: ช่วยให้เจ้าหน้าที่สร้างการตอบในคลิกเดียวเพื่อสนทนาด้วยการส่งข้อความดิจิทัลที่กำลังดำเนินอยู่จากแหล่งความรู้ที่องค์กรของคุณกำหนดค่า

  • สรุปกรณี: Copilot ให้ข้อมูลสรุปของกรณีแก่เจ้าหน้าที่ในฟอร์มกรณี เพื่อให้พวกเขาสามารถติดตามรายละเอียดที่สำคัญของกรณีได้อย่างรวดเร็ว

  • สรุปการสนทนา: Copilot ให้ข้อมูลสรุปการสนทนาแก่เจ้าหน้าที่ในประเด็นสำคัญตลอดการเดินทางของลูกค้า เช่น การส่งต่อให้เจ้าหน้าที่เสมือน การโอนและตามความต้องการ

  • สร้างร่างความรู้จากกรณี (พรีวิว): Copilot สร้างร่างบทความให้ความรู้เป็นข้อเสนอที่อิงตามข้อมูลจากกรณี เจ้าหน้าที่สามารถตรวจสอบและปรับแต่งร่างได้โดยให้คำแนะนำในการแก้ไขแก่ Copilot แล้วบันทึก

  • สรุปเรกคอร์ดที่กำหนดเอง: Copilot ให้ข้อมูลสรุปของเรกคอร์ดตามฟิลด์ที่ผู้ดูแลระบบกำหนดค่าสำหรับตารางแบบกำหนดเองแก่เจ้าหน้าที่ เพื่อให้เจ้าหน้าที่สามารถติดตามรายละเอียดที่สำคัญของเรกคอร์ดการสนับสนุนได้อย่างรวดเร็ว

  • สร้างหมายเหตุการแก้ปัญหา: Copilot มีเจ้าหน้าที่ที่ให้ข้อมูลสรุปของรายละเอียดกรณี อีเมล และหมายเหตุที่เชื่อมโยงกับกรณีแก่เจ้าหน้าที่บริการบนแท็บ ถามคำถาม เพื่อให้พวกเขาสามารถปิดกรณีหรือเหตุการณ์ได้เร็วขึ้น

  • คาดการณ์โดยใช้การเลือกวิธีการที่เหมาะสมที่สุด (ตัวอย่าง): ปรับปรุงสถานการณ์การคาดการณ์โดยการแนะนําและใช้วิธีการที่เหมาะสมที่สุดตามการป้อนข้อมูลในสถานการณ์สมมติ ผู้ดูแลระบบสามารถเลือกระหว่างการตั้งค่าและเลือกระหว่างวิธีดั้งเดิมและตัวเลือกที่ใช้ AI ได้ นอกจากนี้ ผู้ควบคุมยังสามารถเรียกใช้การคาดการณ์ตามความต้องการแทนที่จะรอการทํางานตามกําหนดเวลา ซึ่งทําให้ทีมมีความยืดหยุ่นและข้อมูลเชิงลึกได้เร็วขึ้น

วัตถุประสงค์ของระบบคืออะไร

Copilot ใน Customer Service มีวัตถุประสงค์เพื่อช่วยให้เจ้าหน้าที่บริการลูกค้าทำงานได้อย่างมีประสิทธิภาพและประสิทธิผลมากขึ้น เจ้าหน้าที่บริการลูกค้าสามารถใช้คำตอบตามความรู้ของ Copilot เพื่อประหยัดเวลาในการค้นหาบทความให้ความรู้และร่างคำตอบ บทสรุป Copilot ได้รับการออกแบบมาเพื่อสนับสนุนตัวแทนในการเพิ่มกรณีและการสนทนาอย่างรวดเร็ว เนื้อหาที่สร้างโดย Copilot ใน Customer Service ไม่ได้มีวัตถุประสงค์ให้ใช้โดยไม่มีการตรวจสอบหรือการกำกับดูแลจากมนุษย์

Copilot ใน Customer Service ได้รับการประเมินอย่างไร เมตริกใดที่ใช้วัดประสิทธิภาพ

Copilot ใน Customer Service ได้รับการประเมินเทียบกับสถานการณ์จริงกับลูกค้าทั่วโลกผ่านแต่ละช่วงของการออกแบบ การพัฒนา และการเปิดตัว เราได้ประเมินตัวชี้วัดเชิงปริมาณและเชิงคุณภาพต่างๆ เกี่ยวกับ Copilot รวมถึงความแม่นยำ ประโยชน์ และความไว้วางใจของตัวแทน เรียนรู้เพิ่มเติมใน รายงานความโปร่งใสของ AI ที่รับผิดชอบ

Copilot ใน Customer Service มีข้อจำกัดอะไรบ้าง ผู้ใช้จะลดผลกระทบของข้อจำกัดของ Copilot ได้อย่างไร

ความสามารถที่อิงตามความรู้ของ Copilot เช่น การถามคำถาม การเขียนอีเมล และการร่างข้อความตอบกลับ แรงสนับสนุนด้วยบทความความรู้ที่มีคุณภาพสูงและทันสมัย หากไม่มีบทความให้ความรู้เหล่านี้ ผู้ใช้มักจะพบกับการตอบของ Copilot ที่ไม่เป็นข้อเท็จจริง

การลดโอกาสในการเห็นการตอบสนองที่ไม่ใช่ข้อเท็จจริงจาก Copilot เป็นสิ่งสําคัญที่ Microsoft ต้องจ้างแนวทางปฏิบัติในการจัดการความรู้ที่แข็งแกร่งเพื่อให้แน่ใจว่าความรู้ทางธุรกิจที่เชื่อมต่อกับ Copilot มีคุณภาพสูงและทันสมัย

ปัจจัยการดำเนินงานและการตั้งค่าใดที่ช่วยให้สามารถใช้ระบบได้อย่างมีประสิทธิภาพและมีความรับผิดชอบ

ตรวจสอบผลลัพธ์จาก Copilot เสมอ

Copilot สร้างจากเทคโนโลยีโมเดลภาษาขนาดใหญ่ ซึ่งมีความน่าจะเป็นตามธรรมชาติ เมื่อนำเสนอด้วยข้อความอินพุต โมเดลจะคำนวณความน่าจะเป็นของแต่ละคำในข้อความนั้นตามคำที่อยู่ก่อนหน้า จากนั้นโมเดลจะเลือกคำที่น่าจะตามมามากที่สุด อย่างไรก็ตาม เนื่องจากโมเดลอิงอยู่กับความน่าจะเป็น จึงไม่สามารถพูดได้อย่างแน่ชัดว่าคำถัดไปที่ถูกต้องคืออะไร แต่ทำให้เราคาดเดาได้ดีที่สุดโดยอิงจากการแจกแจงความน่าจะเป็นที่ได้เรียนรู้จากข้อมูลที่ฝึกมา Copilot ใช้วิธีการที่เรียกว่าการสร้างพื้นฐาน ซึ่งเกี่ยวข้องกับการเพิ่มข้อมูลเพิ่มเติมให้กับอินพุตเพื่อปรับบริบทของเอาต์พุตไปยังองค์กรของคุณ ใช้การค้นหาความหมายเพื่อทำความเข้าใจอินพุตและดึงเอกสารภายในองค์กรที่เกี่ยวข้องและผลการค้นหาเว็บสาธารณะที่เชื่อถือได้ และแนะนำโมเดลภาษาให้ตอบสนองตามเนื้อหานั้น แม้ว่าวิธีนี้จะมีประโยชน์ในการทำให้มั่นใจว่าการตอบของ Copilot จะเป็นไปตามข้อมูลขององค์กร แต่สิ่งสำคัญคือต้องตรวจสอบผลลัพธ์ที่สร้างโดย Copilot ก่อนใช้งานเสมอ

รับประโยชน์สูงสุดจาก Copilot

เมื่อคุณโต้ตอบกับ Copilot สิ่งสำคัญคือต้องจำไว้ว่าโครงสร้างของคำถามสามารถส่งผลต่อคำตอบที่ Copilot มอบให้ได้อย่างมาก ในการโต้ตอบกับ Copilot อย่างมีประสิทธิภาพ สิ่งสำคัญคือต้องถามคำถามที่ชัดเจนและเฉพาะเจาะจง ให้บริบทเพื่อช่วยให้ AI เข้าใจเจตนาของคุณได้ดีขึ้น ถามคำถามทีละข้อ และหลีกเลี่ยงคำศัพท์ทางเทคนิคเพื่อความชัดเจนและเข้าถึงได้

ถามคำถามที่ชัดเจนและเฉพาะเจาะจง

เจตนาที่ชัดเจนเป็นสิ่งสำคัญเมื่อถามคำถาม เนื่องจากจะส่งผลโดยตรงต่อคุณภาพของการตอบ ตัวอย่างเช่น การถามคําถามที่กว้างเช่น "ทําไมเครื่องชงกาแฟของลูกค้าจึงไม่เริ่มต้น" มีแนวโน้มน้อยที่จะให้ผลลัพธ์เป็นคําตอบที่มีประโยชน์เมื่อเทียบกับคําถามที่เฉพาะเจาะจงมากขึ้น เช่น "ฉันสามารถใช้ขั้นตอนใดในการกําหนดสาเหตุที่เครื่องชงกาแฟของลูกค้าไม่เริ่มต้นขึ้น"

อย่างไรก็ตาม การถามคําถามที่มีรายละเอียดมากยิ่งขึ้น เช่น "ฉันสามารถใช้ขั้นตอนใดเพื่อพิจารณาว่าทําไมเครื่องชงกาแฟ Contoso 900 ที่มีการจัดอันดับความดัน 5 บาร์ไม่ได้เริ่มต้นขึ้น" จํากัดขอบเขตของปัญหาให้แคบลง และให้บริบทมากขึ้น ซึ่งนําไปสู่การตอบสนองที่ถูกต้องและเป็นเป้าหมายมากขึ้น

เพิ่มบริบท

การเพิ่มบริบทช่วยให้ระบบ AI การสนทนาเข้าใจเจตนาของผู้ใช้ได้ดีขึ้น และให้คำตอบที่ถูกต้องและตรงประเด็นมากขึ้น หากไม่มีบริบท ระบบอาจเข้าใจคำถามของผู้ใช้ผิดหรือให้คำตอบทั่วไปหรือไม่เกี่ยวข้อง

ตัวอย่างเช่น "เพราะเหตุใดเครื่องชงกาแฟจึงไม่เริ่มต้นขึ้น?" ส่งผลให้มีการตอบกลับทั่วไปเมื่อเปรียบเทียบกับคําถามที่มีบริบทเพิ่มเติม เช่น "เมื่อเร็ว ๆ นี้ ลูกค้าเริ่มต้นโหมดขจัดตะกวดในเครื่องชงกาแฟของพวกเขาและเสร็จสิ้นการแยกประเภทได้สําเร็จ พวกเขายังเห็นไฟแสดงการทำงานกะพริบสามครั้งในตอนท้ายเพื่อยืนยันว่าการขจัดคราบตะกรันเสร็จสิ้นแล้ว ทำไมพวกเขาไม่สามารถเปิดเครื่องชงกาแฟได้อีกต่อไป"

การเพิ่มบริบทในลักษณะนี้มีความสำคัญเนื่องจากช่วยให้ Copilot การสนทนาเข้าใจเจตนาของผู้ใช้ได้ดีขึ้น และให้คำตอบที่ถูกต้องและตรงประเด็นมากขึ้น

หลีกเลี่ยงคำศัพท์ทางเทคนิคหากเป็นไปได้

เราขอแนะนําให้คุณหลีกเลี่ยงการใช้คําศัพท์และชื่อทรัพยากรทางเทคนิคสูงเมื่อคุณโต้ตอบกับ Copilot เนื่องจากระบบอาจไม่เข้าใจอย่างแม่นยําหรือเหมาะสมเสมอไป การใช้ภาษาที่เรียบง่ายและเป็นธรรมชาติช่วยให้แน่ใจว่าระบบสามารถเข้าใจเจตนาของผู้ใช้ได้อย่างถูกต้อง และให้คำตอบที่ชัดเจนและมีประโยชน์

ตัวอย่างเช่น คุณสามารถทําซ้ํา "ลูกค้าไม่สามารถ SSH ลงใน VM ได้หลังจากเปลี่ยนการกําหนดค่าไฟร์วอลล์" เป็น "ลูกค้าเปลี่ยนกฎไฟร์วอลล์บนเครื่องเสมือนของพวกเขา แต่พวกเขาไม่สามารถเชื่อมต่อโดยใช้ Secure Shell (SSH) ได้อีกต่อไป คุณช่วยได้ไหม"

เมื่อทำตามคำแนะนำ ตัวแทนสามารถปรับปรุงปฏิสัมพันธ์กับ Copilot และเพิ่มโอกาสในการได้รับคำตอบที่ถูกต้องและมั่นใจจากมัน

การสรุปหรือการขยายคำตอบ

บางครั้งการตอบจาก Copilot อาจนานกว่าที่คาดไว้ นี่อาจเป็นกรณีที่ เจ้าหน้าที่ อยู่ในการสนทนาแชทสดกับลูกค้าและจำเป็นต้องส่งคำตอบที่กระชับเมื่อเทียบกับการส่งการตอบกลับทางอีเมล ในกรณีดังกล่าว การขอให้ Copilot "สรุปคำตอบ" จะส่งผลให้ได้คำตอบที่กระชับต่อคำถาม ในทํานองเดียวกัน ถ้ามีความจําเป็นสําหรับรายละเอียดเพิ่มเติม ขอให้ Copilot ส่งผลลัพธ์ "ให้รายละเอียดเพิ่มเติม" ในคําตอบที่มีรายละเอียดเพิ่มเติมสําหรับคําถามของคุณ หากการตอบสนองถูกตัดทอน ให้พิมพ์ "ดําเนินการต่อ" จะแสดงส่วนเหลือของการตอบสนอง

ฉันสามารถมีอิทธิพลต่อการตอบสนองที่สร้างขึ้นโดย Copilot ได้อย่างไร? ฉันสามารถปรับแต่ง LLM พื้นฐานได้หรือไม่

ไม่สามารถปรับแต่งโมเดลภาษาขนาดใหญ่ (LLM) ได้โดยตรง การตอบของ Copilot อาจได้รับอิทธิพลจากการอัปเดตเอกสารต้นฉบับ เนื้อหาคําติชมทั้งหมดจากการตอบสนองของ Copilot จะถูกเก็บไว้ สามารถสร้างรายงานได้โดยใช้ข้อมูลนี้เพื่อกำหนดแหล่งข้อมูลที่ต้องอัปเดต ควรมีกระบวนการในการตรวจสอบข้อมูลคําติชมอย่างสม่ำเสมอ และตรวจสอบให้แน่ใจว่าบทความความรู้ให้ข้อมูลที่ดีที่สุดและอัปเดตล่าสุดสำหรับ Copilot

รูปแบบการรักษาความปลอดภัยข้อมูลสำหรับ Copilot คืออะไร

Copilot บังคับใช้ตัวควบคุมการเข้าถึงตามบทบาท (RBAC) ที่กําหนดไว้ และยึดตามโครงสร้างความปลอดภัยที่มีอยู่ทั้งหมด ดังนั้น ตัวแทนจึงไม่สามารถดูข้อมูลที่พวกเขาไม่สามารถเข้าถึงได้ นอกจากนี้ เฉพาะแหล่งข้อมูลที่ตัวแทนมีสิทธิ์เข้าถึง จะถูกใช้สําหรับการสร้างการตอบสนองของ Copilot

Copilot ตัดสินได้อย่างไรว่าเนื้อหาไม่เหมาะสมหรือเป็นอันตราย

Copilot พิจารณาว่าเนื้อหาเป็นอันตรายหรือไม่ผ่านระบบการให้คะแนนความรุนแรงตามหมวดหมู่ที่แตกต่างกันของเนื้อหาที่ไม่เหมาะสม เรียนรู้เพิ่มเติมในประเภทอันตรายในความปลอดภัยของเนื้อหา Azure AI

การประมวลผลและการดึงข้อมูลเพื่อสร้างการตอบของ Copilot เกิดขึ้นที่ใด

Copilot ไม่เรียกบริการ OpenAI สาธารณะที่ขับเคลื่อน ChatGPT Copilot ใน Customer Service ใช้ Microsoft Azure OpenAI Service ในผู้เช่าที่มีการจัดการของ Microsoft การประมวลผลและการดึงข้อมูลทั้งหมดเกิดขึ้นภายในผู้เช่าที่มีการจัดการของ Microsoft นอกจากนี้ ข้อมูลของลูกค้าจะไม่ถูกแชร์และจะไม่ถูกป้อนกลับเข้าไปในโมเดลสาธารณะ

ข้อจำกัดด้านภาษาสำหรับบทสรุปที่ Copilot สร้างขึ้นจากกรณีและการสนทนามีอะไรบ้าง

รองรับหลายภาษาในการสรุปที่สร้างโดย Copilot จากกรณีและการสนทนา คุณภาพของบทสรุปเหล่านี้คาดว่าจะสูงที่สุดในภาษาอังกฤษในขณะที่ในภาษาอื่น ๆ คุณภาพคาดว่าจะดีขึ้นเมื่อเวลาผ่านไป เรียนรู้เกี่ยวกับภาษาที่รองรับใน การสนับสนุนภาษาสำหรับลักษณะ Copilot

โมเดลได้รับการทดสอบและตรวจสอบอย่างต่อเนื่องหรือไม่? ถ้าเป็นเช่นนั้นบ่อยแค่ไหน? ทำการทดสอบอะไรบ้าง?

โมเดลได้รับการทดสอบคุณภาพและเนื้อหาที่เป็นอันตรายทุกครั้งที่มีการเปลี่ยนแปลงการโต้ตอบหรือเวอร์ชันของโมเดล เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ

โมเดลได้รับการตรวจสอบบ่อยแค่ไหนเพื่อตรวจจับการเสื่อมประสิทธิภาพ

Azure OpenAI เป็นโฮสต์และจัดการแบบจําลอง AI GPT เชิงสร้าง การใช้โมเดลในสถานการณ์การบริการลูกค้าถูกผูกมัดโดยแนวทางปฏิบัติของ AI ที่รับผิดชอบและการตรวจสอบคณะกรรมการความปลอดภัยในการปรับใช้ การเปลี่ยนแปลงใดๆ ในเวอร์ชันของโมเดลหรือพร้อมท์พื้นฐานจะได้รับการตรวจสอบคุณภาพและเนื้อหาที่เป็นอันตราย เรียนรู้เพิ่มเติมใน รายงานความโปร่งใสของ AI ที่รับผิดชอบ

ผลิตภัณฑ์หรือบริการใช้มากกว่าหนึ่งโมเดลหรือระบบของแบบจำลองที่ขึ้นต่อกันหรือไม่

คุณลักษณะต่างๆ ในระบบอาจใช้โมเดลของบริการ Azure OpenAI เวอร์ชันต่างๆ เรียนรู้เพิ่มเติมใน โมเดลของบริการ Azure OpenAI

Copilot ใช้ผลิตภัณฑ์หรือบริการที่ไม่ใช่ของ Microsoft หรือไม่ และมีคู่มือสำหรับโมเดลนี้หรือไม่

Copilot สร้างขึ้นโดยใช้ Azure OpenAI ซึ่งเป็นบริการ AI ที่มีการจัดการเต็มรูปแบบ ซึ่งผสานรวม OpenAI กับโมเดลการกรองเนื้อหาและการตรวจจับความไม่เหมาะสมที่พัฒนาโดย Microsoft เรียนรู้เพิ่มเติมใน บันทึกความโปร่งใสสำหรับ Azure OpenAI

มีกระบวนการที่กำหนดไว้เพื่อสื่อสารการเปลี่ยนแปลงใดๆ ในโมเดล โมเดลอัปสตรีม หรือเอาต์พุตที่ใช้จาก AI/ML หรือโซลูชันโมเดลอื่นๆ หรือไม่

การเปลี่ยนแปลงที่วางแผนไว้ในคุณลักษณะ Copilot จะได้รับการสื่อสารผ่านเอกสารสาธารณะ อย่างไรก็ตาม การเปลี่ยนแปลงเกี่ยวกับเวอร์ชันโมเดลหรือพร้อมท์จะถูกควบคุมโดยกระบวนการ AI ที่รับผิดชอบภายใน การเปลี่ยนแปลงเหล่านี้ไม่ได้รับการสื่อสาร เนื่องจากเป็นการปรับปรุงการทำงานที่เพิ่มขึ้นและต่อเนื่อง

คำติชมแบบคำต่อคำของผู้ใช้มีให้สำหรับ Microsoft เพื่อปรับปรุงผลิตภัณฑ์หรือไม่

ไม่ใช่

Microsoft มีนโยบายและขั้นตอนที่กำหนดและแยกแยะบทบาทและความรับผิดชอบของมนุษย์ที่หลากหลายเมื่อพวกเขาโต้ตอบหรือตรวจสอบระบบ AI หรือไม่?

ใช่ ในกระบวนการ AI ที่รับผิดชอบ ผู้มีส่วนได้ส่วนเสียและผู้ใช้ที่เกี่ยวข้องทั้งหมดจะได้รับการพิจารณา และจะมีการหารือเกี่ยวกับการใช้งานหรือการใช้ระบบโดยไม่ได้ตั้งใจ ขึ้นอยู่กับสถานการณ์ที่ระบุการบรรเทาที่จำเป็นจะถูกนำเข้ามาภายในผลิตภัณฑ์หรือผ่านทางเอกสารประกอบ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ

Microsoft ระบุและจัดทำเอกสารแนวทางในการมีส่วนร่วม รวบรวม และรวมข้อมูลจากผู้ใช้ปลายทางรายอื่นและผู้มีส่วนได้ส่วนเสียหลักเพื่อช่วยในการตรวจสอบผลกระทบที่อาจเกิดขึ้นและความเสี่ยงที่เกิดขึ้นใหม่อย่างต่อเนื่องหรือไม่

ใช่ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ

Microsoft จัดทำเอกสาร ฝึกฝน และวัดแผนการตอบสนองต่อเหตุการณ์สำหรับเหตุการณ์ของระบบ AI รวมถึงการวัดการตอบสนองและเวลาหยุดทำงานหรือไม่

ใช่ กระบวนการ AI ที่รับผิดชอบกําหนดให้ทีมมีแผนตอบสนองต่อเหตุการณ์สําหรับปัญหา AI ซึ่งคล้ายกับกระบวนการสําหรับปัญหาการทํางาน ทีมคุณลักษณะจะติดตามประสิทธิภาพและความน่าเชื่อถือของระบบอย่างต่อเนื่อง เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ

Microsoft กำหนดขั้นตอนในการแบ่งปันข้อมูลเกี่ยวกับการเกิดข้อผิดพลาดและผลกระทบด้านลบกับผู้เกี่ยวข้อง ผู้ปฏิบัติงาน ผู้ใช้ และผู้ได้รับผลกระทบที่เกี่ยวข้องหรือไม่

ใช่ สำหรับปัญหาที่มีความรุนแรงสูงทีมคุณลักษณะจะต้องสื่อสารการหยุดทำงานกับลูกค้าที่ได้รับผลกระทบ

Microsoft วัดและตรวจสอบประสิทธิภาพของระบบแบบเรียลไทม์เพื่อให้สามารถตอบสนองได้อย่างรวดเร็วเมื่อตรวจพบเหตุการณ์ของระบบ AI หรือไม่

ใช่ ทีมงานฟีเจอร์จะตรวจสอบประสิทธิภาพและความน่าเชื่อถือของระบบอย่างต่อเนื่อง

Microsoft ทดสอบคุณภาพของคำอธิบายระบบกับผู้ใช้ปลายทางและผู้มีส่วนได้ส่วนเสียอื่นๆ หรือไม่

ใช่ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ

Microsoft ได้กำหนดนโยบายและขั้นตอนสำหรับการตรวจสอบและจัดการกับประสิทธิภาพของระบบโมเดลและความน่าเชื่อถือ รวมถึงอคติและปัญหาด้านความปลอดภัยตลอดวงจรชีวิตของโมเดลเมื่อประเมินระบบ AI สำหรับความเสี่ยงและผลประโยชน์เชิงลบหรือไม่

ใช่ เรียนรู้เพิ่มเติมใน รายงานความโปร่งใสของ AI ที่รับผิดชอบ

Microsoft ดำเนินการประเมินความเป็นธรรมเพื่อจัดการอคติในรูปแบบการคำนวณและสถิติหรือไม่

ใช่ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ

Microsoft ตรวจสอบเอาต์พุตของระบบเพื่อหาปัญหาด้านประสิทธิภาพหรืออคติหรือไม่

ใช่ ตัวกรองการควบคุมจะถูกนำไปใช้ในหลายชั้น รวมถึงในเอาต์พุตเพื่อให้แน่ใจว่าไม่มีเนื้อหาที่เป็นอันตรายในการตอบสนอง เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ

ระดับความยืดหยุ่นในการทำงานของโมเดลคืออะไร? ตัวอย่างเช่น มีการกู้คืนจากความเสียหายและแผนฉุกเฉินสำหรับกรณีที่โมเดลไม่พร้อมใช้งาน

เช่นเดียวกับบริการ Azure ทั้งหมด การสำรองข้อมูลและการกู้คืนได้รับการสนับสนุนผ่านศูนย์ข้อมูลหลายแห่งเพื่อความพร้อมใช้งานสูง

โมเดลขึ้นอยู่กับ ฝังอยู่ภายในเครื่องมือหรือโซลูชันของบริษัทอื่น ซึ่งทำให้ยากต่อการย้ายโมเดลไปยังสภาพแวดล้อมอื่น (รวมถึงตัวแปรต่างๆ เช่น ผู้ให้บริการโฮสต์ ฮาร์ดแวร์ ระบบซอฟต์แวร์) ที่จะขัดขวางความสามารถในการอธิบายของโมเดลหรือไม่

ไม่ใช่

มีนโยบายการกำกับดูแลรูปแบบที่กำหนดไว้หรือไม่?

ใช่ Azure OpenAI สนับสนุนนโยบายการกํากับดูแลที่กําหนดไว้ เรียนรู้เพิ่มเติมในรายงานความโปร่งใสของ AI ที่มีความรับผิดชอบ

มีโปรโตคอลที่จัดตั้งขึ้นและจัดทำเป็นเอกสาร (การอนุญาต ระยะเวลา ประเภท) และการควบคุมการเข้าถึงสำหรับชุดข้อมูลการฝึกอบรมหรือการผลิตที่มี PII ตามนโยบายความเป็นส่วนตัวและการกำกับดูแลข้อมูลหรือไม่

ปัจจุบันไม่มีการฝึกอบรมแบบจำลองดังนั้นจึงไม่มีข้อกำหนดเกี่ยวกับชุดข้อมูล อย่างไรก็ตาม เมื่อเจ้าหน้าที่ฝ่ายบริการลูกค้ามีส่วนร่วมกับ Copilot โดยขึ้นอยู่กับคุณลักษณะ ข้อมูลบริบท (กรณีหรือการสนทนา) จะใช้เพื่อสร้างการตอบกลับ

มีการตรวจสอบการเปิดเผย PII และการอนุมานคุณลักษณะที่ละเอียดอ่อนหรือได้รับการคุ้มครองตามกฎหมายหรือไม่

ใช่ การตรวจสอบความเป็นส่วนตัวจะดําเนินการสําหรับทุกคุณลักษณะ

ใช่ การตรวจสอบทางกฎหมายจะดําเนินการสําหรับทุกคุณลักษณะเพื่อช่วยในข้อกําหนดด้านการควบคุมและข้อกําหนดทางกฎหมายอื่น ๆ

ใช้คุณลักษณะ Copilot
ใช้ Copilot เพื่อสร้างร่างความรู้จากกรณี
ภูมิภาคที่มีให้ใช้งานของ Copilot
คำถามที่ถามบ่อยเกี่ยวกับความปลอดภัยและความเป็นส่วนตัวของข้อมูล Copilot ใน Microsoft Power Platform