แชร์ผ่าน


ถามที่ถามบ่อยสําหรับการอนุมัติ AI

คําถามที่ถามบ่อยเหล่านี้อธิบายความสามารถ การใช้งาน และการป้องกันของขั้นตอนการอนุมัติจาก AI (การอนุมัติ AI) ใน Microsoft Copilot Studio การอนุมัติ AI ช่วยให้โฟลว์ตัวแทนสามารถอนุมัติหรือปฏิเสธคําขอตามเกณฑ์ที่กําหนดไว้ล่วงหน้าโดยอัตโนมัติ ในขณะที่ช่วยให้มั่นใจว่ามนุษย์ยังคงควบคุมการตัดสินใจที่สําคัญได้ ต่อไปนี้คือคําถามทั่วไปและคําตอบบางส่วนเกี่ยวกับคุณลักษณะนี้

การอนุมัติ AI คืออะไร

การอนุมัติ AI เป็นขั้นตอนการตัดสินใจอัตโนมัติอัจฉริยะในเวิร์กโฟลว์การอนุมัติ การอนุมัติ AI ใช้แบบจําลอง AI (แบบจําลอง Azure OpenAI หรือแบบจําลองที่คุณสามารถนํามาจาก Azure AI Foundry) เพื่อประเมินคําขออนุมัติกับกฎทางธุรกิจของคุณ และส่งคืนการตัดสินใจ "ได้รับอนุมัติ" หรือ "ปฏิเสธ" ด้วยเหตุผล

ความสามารถในการอนุมัติ AI คืออะไร

การอนุมัติ AI สามารถแปลข้อมูลที่ไม่มีโครงสร้างและเอกสารที่ซับซ้อนได้ (เช่น PDF หรือรูปภาพที่แนบมากับคําขอ) และนําตรรกะที่ต่างจากกฎพื้นฐานมาใช้เพื่อตัดสินใจ ตัวอย่างเช่น การอนุมัติ AI สามารถอ่านการอธิบายข้อควรพิจารณาที่เป็นลายลักษณ์อักษร ตรวจสอบคําสําคัญของนโยบาย จากนั้นจึงตัดสินใจ

ขั้นตอนการอนุมัติ AI ยังสามารถรวมกับขั้นตอนของมนุษย์เพื่อให้ในขณะที่ AI จัดการการตัดสินใจเป็นประจําผู้คนยังคงดูแลและจบกรณีที่สําคัญหรือยอดเยี่ยมใด ๆ โดยสรุป การอนุมัติ AI จะทําให้การตัดสินใจใช่/ไม่มีอยู่ซ้ํา ๆ อยู่ในกระบวนการโดยอัตโนมัติ เร่งขั้นตอนการทํางานโดยไม่ต้องลบการกํากับดูแลของมนุษย์ในกรณีที่มีความสําคัญ

วัตถุประสงค์ในการอนุมัติ AI คืออะไร

การอนุมัติ AI ถูกออกแบบมาสําหรับสถานการณ์ทางธุรกิจทั่วไปด้วยเกณฑ์ที่กําหนดไว้อย่างดี ทําให้เวิร์กโฟลว์ประจําวันมีความคล่องตัวมากขึ้นด้วยการตัดสินใจเป็นประจําโดยอัตโนมัติ กรณีการใช้งานทั่วไปได้แก่:

การอนุมัติการจ่ายคืนเงินค่าใช้จ่าย: อนุมัติการอ้างสิทธิ์โดยอัตโนมัติภายใต้จํานวนเงินที่กําหนดพร้อมกับใบเสร็จรับเงินที่ถูกต้อง ให้ผู้จัดการมุ่งเน้นเฉพาะข้อยกเว้นเท่านั้น

การอนุมัติใบสั่งซื้อ (PO): ประเมินคําขอเทียบกับขีดจํากัดงบประมาณและรายการผู้จัดจําหน่าย ซึ่งอนุมัติ POs มาตรฐานโดยอัตโนมัติภายในนโยบาย

การอนุมัติคําขอเดินทาง: อนุมัติคําขอการเดินทางที่เป็นไปตามข้อกําหนดโดยอัตโนมัติขณะปฏิเสธคําขอที่มีการละเมิดนโยบาย

การออนบอร์ดของผู้จัดจําหน่าย: ยอมรับหรือปฏิเสธแอปพลิเคชันโดยการตรวจสอบคุณสมบัติและข้อกําหนดการปฏิบัติตามข้อกําหนดเทียบกับเกณฑ์ที่กําหนดไว้ล่วงหน้า

การอนุมัติการประมวลผลใบแจ้งหนี้: ตรวจสอบความถูกต้องของใบแจ้งหนี้โดยการจับคู่ยอดเงินกับใบสั่งซื้อ และยืนยันว่ามีเอกสารประกอบที่จําเป็นอยู่

การอนุมัติการตรวจทานเอกสาร: ยืนยันว่าสัญญาหรือนโยบายมีองค์ประกอบที่จําเป็นและเป็นไปตามมาตรฐานการจัดรูปแบบก่อนที่จะดําเนินการขั้นตอนถัดไป

การอนุมัติคําขอหมดเวลา: อนุมัติคําขอลาเมื่อพนักงานมียอดดุลเพียงพอและไม่มีความขัดแย้งในการจัดกําหนดการ

การอนุมัติ AI ได้รับการออกแบบมาสําหรับการตัดสินใจที่กําหนดไว้อย่างดีเป็นประจํา อย่างไรก็ตาม มีสถานการณ์ที่ระบบอาจไม่ดําเนินการอย่างน่าเชื่อถือหรือตอบสนองได้ เราขอแนะนําให้ลูกค้าใช้การอนุมัติ AI ในโซลูชันหรือแอปพลิเคชันที่เป็นนวัตกรรมใหม่ แต่ควรพิจารณาหลักการต่อไปนี้เมื่อเลือกกรณีการใช้งาน:

  • การเดิมพันสูงหรือการตัดสินใจเปลี่ยนแปลงชีวิต: ระบบไม่ได้ออกแบบมาเพื่อจัดการการตัดสินใจที่ส่งผลกระทบต่อสุขภาพความปลอดภัยการเงินหรือสถานะทางกฎหมาย ตัวอย่างเช่น การเรียกร้องค่าสินไหมทดแทนการประกันภัย การอนุมัติจากแพทย์ การอนุมัติสินเชื่อ หรือการตรวจสอบการเข้าเมือง ซึ่งจําเป็นต้องมีการตัดสินของมนุษย์และภาระหน้าที่

  • กฎหมายหรือวินัย: กรณีการใช้งานที่เกี่ยวข้องกับความรับผิดชอบทางกฎหมาย การตีความการปฏิบัติตามกฎระเบียบ หรือวินัยของพนักงานอาจเกินขอบเขตที่ระบบตั้งใจไว้ ในขณะที่ AI สามารถสรุปข้อมูลป้อนเข้า การตัดสินใจขั้นสุดท้ายในพื้นที่เหล่านี้ควรยังคงอยู่กับมนุษย์

  • เกณฑ์อัตนัยหรือไม่ชัดเจน: ระบบอาจต่อสู้กับการตัดสินใจที่ขึ้นอยู่กับรสนิยม ดุลยพินิจ หรือการแลกเปลี่ยนที่ซับซ้อน เช่น การประเมินผลงานสร้างสรรค์หรือประเมินคุณภาพ ซึ่งมาตรฐานไม่ได้รับการจัดการอย่างง่ายดาย

  • สถานการณ์ที่มีความซับซ้อนทางจริยธรรมหรือละเอียดอ่อน: การอนุมัติ AI ไม่ได้ออกแบบมาเพื่อการตัดสินใจที่เกี่ยวข้องกับแอตทริบิวต์ส่วนบุคคล การเลือกปฏิบัติที่อาจเกิดขึ้น หรือการสร้างเนื้อหาที่ถูกจํากัด การใช้งานเหล่านี้ทําให้เกิดข้อกังวลเกี่ยวกับ AI ที่รับผิดชอบและอาจจําเป็นต้องมีการป้องกันเพิ่มเติม

  • อุตสาหกรรมที่มีการควบคุมและเวิร์กโฟลว์ที่ไวต่อการปฏิบัติตามกฎระเบียบ: ในโดเมนเช่นการดูแลสุขภาพ, การเงินหรือการบิน, ข้อกําหนดด้านการกํากับดูแลอาจจําเป็นต้องมีการกํากับดูแลของมนุษย์แม้สําหรับการตัดสินใจในประจํา. ระบบไม่ได้รับการประเมินสําหรับการปฏิบัติตามข้อกําหนดในบริบทเหล่านี้

  • การใช้ที่คาดการณ์ได้แต่ไม่ได้ตั้งใจ: เมื่อนํามาใช้เพิ่มขึ้น ผู้ใช้อาจพยายามนําการอนุมัติ AI ไปใช้กับด้านต่าง ๆ เช่น การตรวจสอบประสิทธิภาพ, การตัดสินใจการจ้างงาน หรือการประเมินสิทธิ์ของลูกค้า การใช้งานเหล่านี้ไม่ได้เป็นส่วนหนึ่งของการออกแบบหรือการประเมินผลกระทบของระบบและอาจก่อให้เกิดความเสี่ยงหากไม่ได้รับการจัดการอย่างรอบคอบ

สําคัญ

ข้อควรพิจารณาทางกฎหมายและข้อบังคับ องค์กรจําเป็นต้องประเมินข้อผูกพันทางกฎหมายและระเบียบข้อบังคับที่อาจเกิดขึ้นเมื่อใช้บริการและโซลูชัน AI ใด ๆ บริการและโซลูชันอาจไม่เหมาะสมสําหรับการใช้งานในทุกอุตสาหกรรมหรือสถานการณ์ ข้อจํากัดอาจแตกต่างกันไปตามข้อกําหนดของหน่วยงานกํากับดูแลตามภูมิภาคหรือท้องถิ่น นอกจากนี้ บริการของ AI หรือโซลูชันไม่ได้ออกแบบมาสําหรับและอาจไม่สามารถใช้งานได้ในรูปแบบที่ห้ามไว้ในข้อกําหนดการให้บริการและรหัสแนวทางปฏิบัติที่เกี่ยวข้อง

ข้อจํากัดทางเทคนิคของการอนุมัติ AI คืออะไร และผู้ใช้จะสามารถลดผลกระทบของข้อจํากัดได้อย่างไร

ในขณะที่การอนุมัติ AI เป็นขีดความสามารถที่มีประสิทธิภาพ แต่เราขอแนะนําให้ผู้ใช้คํานึงถึงข้อจํากัดของพวกเขา:

การอนุมัติ AI ขึ้นอยู่กับกฎที่ให้ไว้: AI ปฏิบัติตามคําแนะนําและข้อมูลของคุณอย่างเคร่งครัด หากพร้อมท์ของคุณไม่ชัดเจนหรือไม่สมบูรณ์ การอนุมัติ AI อาจทําการตัดสินใจที่ไม่ถูกต้องหรือล้มเหลว กําหนดเกณฑ์อย่างชัดเจน พูดว่า "อนุมัติถ้าเหมาะสม" โดยไม่กําหนด "เหมาะสม" นําไปสู่การตีความผิด

ความเป็นไปได้ของข้อผิดพลาด: การอนุมัติ AI สามารถทําข้อผิดพลาดเนื่องจากอินพุตที่ไม่ชัดเจน กรณีขอบที่ซับซ้อน หรืออ่านเอกสารที่สแกนไม่ดีผิด เอาต์พุตไม่แม่นยํา 100% เสมอไป ดังนั้นการมองข้ามจึงเป็นสิ่งสําคัญสําหรับกรณีเส้นเส้นขอบ

การขาดความหลงใหลในมนุษย์: การอนุมัติ AI ไม่เข้าใจบริบทนอกเหนือจากสิ่งที่พวกเขาได้รับแจ้งและไม่สามารถถามคําถามให้ชัดเจนหรือใช้ความรู้สึกลําไส้ การอนุมัติ AI อาจพลาดความแตกต่างของมนุษย์เช่นการจับค่าใช้จ่ายที่น่าสงสัยที่ "ดูสูงเกินไปสําหรับการเดินทางนั้น"

ไม่มีการเรียนรู้จากประสบการณ์: การอนุมัติ AI จะไม่ปรับเปลี่ยนจากการอนุมัติแต่ละครั้ง —ทั้งหมดจะไม่เปลี่ยนแปลงลักษณะการทํางาน เว้นแต่ว่าคุณอัปเดตพร้อมท์ สถานการณ์ใหม่ ๆ ที่ไม่ครอบคลุมโดยกฎที่มีอยู่จําเป็นต้องมีการบํารุงรักษาอย่างต่อเนื่องเนื่องจากมีการพัฒนานโยบาย

การขึ้นต่อกันของคุณภาพข้อมูล: การตัดสินใจเกี่ยวกับการอนุมัติ AI นั้นดีเท่าข้อมูลป้อนเข้าเท่านั้น ไฟล์ที่มีคุณภาพไม่ดี เอกสารที่ไม่สมบูรณ์ หรือภาพสแกนที่ไม่สามารถอ่านได้ อาจทําให้เกิดการตัดสินใจที่ไม่ถูกต้องหรือระบบล้มเหลว

ข้อจํากัดของการรวมและประสิทธิภาพการทํางาน: เกณฑ์การอนุมัติที่ซับซ้อนหรือการตัดสินใจที่ต้องใช้ข้อมูลแบบเรียลไทม์จากหลายระบบอาจลดความถูกต้องและเพิ่มเวลาในการประมวลผล

จําเป็นต้องกําหนดค่าที่รับผิดชอบ: ผู้ใช้ต้องกําหนดค่าการอนุมัติ AI อย่างมีจริยธรรม ด้วยมนุษย์ที่มีความปลอดภัยและกฎที่ไม่ใช้อคติ โปรดแน่ใจว่าคําแนะนําสอดคล้องกับนโยบายของ บริษัท และแนวทางจริยธรรม

ไม่สามารถเข้าถึงข้อมูลแบบเรียลไทม์: การอนุมัติ AI สามารถทํางานกับข้อมูลที่ระบุไว้อย่างชัดเจนเท่านั้น พวกเขาไม่สามารถตรวจสอบเรื่องปัจจุบัน ข่าวสาร หรือเหตุการณ์เว้นแต่ว่าข้อมูลจะถูกป้อนลงในกระบวนการอนุมัติ

เพื่อลดความเสี่ยงและปรับปรุงความน่าเชื่อถือเมื่อใช้การอนุมัติ AI:

  • รวมการกํากับดูแลของมนุษย์: กําหนดเส้นทางกรณีที่สําคัญหรือไม่ชัดเจนเพื่อตรวจทานขั้นตอนการตรวจสอบด้วยตนเองเพื่อให้แน่ใจว่ารับผิดชอบและการตัดสิน

  • ทดสอบด้วยตัวอย่างที่หลากหลาย: ใช้ข้อมูลในอดีตและกรณีขอบเพื่อตรวจสอบลักษณะการทํางานของระบบก่อนการปรับใช้

  • ปรับแต่งพร้อมท์เป็นประจํา: อัปเดตคําแนะนําตามนโยบายที่พัฒนาขึ้นหรือสถานการณ์ใหม่เกิดขึ้นเพื่อรักษาความเกี่ยวข้องและความถูกต้อง

  • หลีกเลี่ยงเกณฑ์ที่คลุมเครือ: ตรวจสอบให้แน่ใจว่าพร้อมท์มีความชัดเจนและกําหนดไว้อย่างดี — หลีกเลี่ยงคําเช่น "เหมาะสม" โดยไม่มีบริบทที่ชัดเจน

  • ตรวจสอบการตัดสินใจ: ใช้เครื่องมือ เช่น กิจกรรมตัวสร้างพรอมต์ เพื่อติดตามอัตราการอนุมัติและระบุรูปแบบหรือข้อผิดพลาด

  • ฝึกอบรมผู้ใช้: ให้ความรู้แก่พนักงานเกี่ยวกับการตีความเหตุผลของ AI และแทนที่ขั้นตอนเพื่อสร้างความน่าเชื่อถือและความโปร่งใส

จำ: AI สามารถดําเนินการตามคําแนะนําที่บกพร่องได้อย่างมั่นใจ ดังนั้นแนวทางที่ถูกต้องจึงเป็นสิ่งจําเป็น

ปัจจัยการดําเนินงานและการตั้งค่าใดบ้างที่ช่วยให้สามารถใช้ประสบการณ์การอนุมัติของตัวแทนได้อย่างมีประสิทธิภาพและรับผิดชอบ

หากต้องการใช้การอนุมัติ AI อย่างมีประสิทธิภาพและปลอดภัย ให้พิจารณาแนวทางปฏิบัติที่ดีที่สุดในการดําเนินงานเหล่านี้:

  • ตั้งค่าอุณหภูมิต่ําเพื่อความสอดคล้อง: ใช้การตั้งค่าอุณหภูมิต่ํา (ใกล้ 0) เพื่อให้แน่ใจว่า AI ทําการตัดสินใจเชิงกําหนดและคาดการณ์ได้แทนที่จะเปลี่ยนการตอบสนองไปยังอินพุตที่เหมือนกัน ค่าเริ่มต้นการตั้งค่า Copilot Studio ได้รับการปรับให้เหมาะสมสําหรับความน่าเชื่อถือแล้ว

  • เลือกรุ่นที่ถูกต้อง: GPT-4.1 มักเหมาะสําหรับสถานการณ์การอนุมัติส่วนใหญ่ แบบจําลองการให้เหตุผลขั้นสูง (เช่น O3) อาจจัดการกับตรรกะที่ซับซ้อนได้ดีขึ้น แต่ช้าลง แบบจําลองที่ให้มาของ Microsoft ได้รับการรวมและทดสอบไว้ล่วงหน้า แม้ว่าคุณจะสามารถนําแบบจําลองของคุณเองที่ปรับแต่งแล้วมาจาก Azure AI Foundry หากคุณมีความต้องการเฉพาะหรือความต้องการที่กําหนดเอง

  • ใช้การกํากับดูแลของมนุษย์: กําหนดค่าระยะของมนุษย์หรือด้วยตนเองที่สามารถกําหนดเส้นทางไปยัง สําหรับการตัดสินใจที่สําคัญ ขั้นตอนของมนุษย์และขั้นตอนแบบแมนนวลมีการควบคุมอยู่เสมอ

  • ทดสอบอย่างถี่ถ้วนใน Sandbox: เรียกใช้การทดสอบที่ครอบคลุมด้วยข้อมูลในอดีตและคําขอตัวอย่างก่อนที่จะใช้งานจริง ทดสอบกรณีของขอบโดยตั้งใจ - เขตข้อมูลที่ขาดหายไป กฎที่ขัดแย้ง กัน สถานการณ์ผิดปกติ ตรวจสอบทริกเกอร์เวิร์กโฟลว์แบบ end-to-end อย่างถูกต้อง

  • ตรวจสอบการตัดสินใจ: การตัดสินใจทั้งหมดจะถูกบันทึกไว้ในส่วน กิจกรรมตัวสร้างพร้อมท์ ใน Power Automate ใช้ข้อมูลนั้นเพื่อติดตามเมตริก เช่น อัตราการอนุมัติและประเมินความถูกต้องของการตัดสินใจการอนุมัติ AI

  • อัปเดตเกณฑ์เป็นประจํา: ถือว่า AI พร้อมท์เป็นเอกสารที่มีชีวิต อัปเดตคําแนะนําเมื่อมีการเปลี่ยนแปลงนโยบายหรือสถานการณ์ใหม่ปรากฏขึ้น รวมคําติชมจากผู้จัดการเกี่ยวกับ AI ที่เข้มงวดหรือเพรียวบางเกินไปในพื้นที่เฉพาะ

  • ให้ความโปร่งใสและการฝึกอบรม: ฝึกพนักงานที่เกี่ยวข้องในการตีความเหตุผล AI และขั้นตอนการแทนที่ แจ้งให้ผู้ใช้ปลายทางทราบว่าคําขออาจได้รับการประเมินโดย AI ในขั้นต้น ความคาดหวังที่ชัดเจนจะป้องกันความสับสนและสร้างความไว้วางใจ

ด้วยการปรับแต่งการตั้งค่า AI เพื่อความสอดคล้อง การฝังการกํากับดูแลของมนุษย์และการจัดการกระบวนการอย่างแข็งขันคุณมั่นใจได้ว่าการอนุมัติ AI จะมีประสิทธิภาพและติดตามต่อไป คิดว่าเป็นพันธมิตร: AI จัดการปริมาณและความเร็วมนุษย์จัดการคําแนะนําและข้อยกเว้น

มีการป้องกันอะไรบ้างภายใน Copilot Studio สำหรับ AI ที่รับผิดชอบ

มีการใช้งานการควบคุมเนื้อหาประเภทใด?

โมเดล GPT ได้รับการฝึกเกี่ยวกับข้อมูลอินเทอร์เน็ต ซึ่งเหมาะสำหรับการสร้างโมเดลที่ใช้กันในโลกทั่วไป ในขณะเดียวกัน ก็สามารถสืบทอดเนื้อหาที่ไม่พึงประสงค์ เป็นอันตราย และมีความลำเอียงจากแหล่งเดียวกันได้ แบบจําลองได้รับการฝึกฝนให้ทํางานอย่างปลอดภัยและไม่สร้างเนื้อหาที่เป็นอันตราย แต่บางครั้งก็สามารถสร้างผลผลิตที่เป็นพิษได้ การอนุมัติ AI ใช้บริการ Azure AI Content Safety เพื่อทําให้สถานะของความสามารถในการควบคุมเนื้อหาที่ล้ําสมัยภายในพร้อมท์ AI การควบคุมนี้รวมถึงบริการวิเคราะห์เอาต์พุตที่สร้างขึ้นด้วยเครื่องสแกนข้อความความรุนแรงหลายตัวและความปลอดภัยจากการโจมตีการฉีดที่รวดเร็ว นอกจากนี้ผลลัพธ์ยังถูกสแกนเพื่อหาการรั่วของเนื้อหาที่มีการป้องกันอีกด้วย

รูปแบบภาษาใดที่ได้รับการสนับสนุน พวกเขาโฮสต์ที่ไหน และจะเข้าถึงได้อย่างไร

การอนุมัติ AI สนับสนุนแบบจําลอง GPT 4.1 mini, GPT 4.o, GPT 4.1 และ o3 ซึ่งโฮสต์บนบริการ Azure OpenAI คุณสามารถเข้าถึงแบบจําลองเหล่านี้ผ่านพร้อมท์ใน Power Platform ในแอปพลิเคชัน โฟลว์ และตัวแทนของคุณ

หากต้องการเรียนรู้เพิ่มเติม โปรดดู มีอะไรใหม่ในบริการ Azure OpenAI

ข้อมูลของฉันถูกใช้เพื่อฝึกหรือปรับปรุงแบบจําลองภาษาขนาดใหญ่หรือไม่

การอนุมัติ AI ทํางานบนบริการ Azure OpenAI ที่โฮสต์โดย Microsoft ข้อมูลลูกค้าไม่ได้ใช้เพื่อฝึกหรือปรับปรุงโมเดลพื้นฐานของบริการ Azure OpenAI ใดๆ Microsoft ไม่แชร์ข้อมูลลูกค้าของคุณกับบุคคลที่สาม เว้นแต่ว่าคุณให้สิทธิ์ในการดําเนินการดังกล่าว ทั้งพร้อมท์ของลูกค้า (อินพุต) ที่มีข้อมูลพื้นฐานหรือการตอบสนองของโมเดล (เอาต์พุต) จะไม่ถูกใช้เพื่อฝึกหรือปรับปรุงโมเดลพื้นฐาน Azure OpenAI Service

รูปภาพของบุคคลประมวลผลอย่างไร

การอนุมัติ AI ไม่ได้มีไว้สําหรับการใช้งานการระบุบุคคลตามลักษณะใบหน้าหรือข้อมูลทางชีวมิติ เมื่อคุณส่งรูปภาพที่มีบุคคลในการอนุมัติ AI ระบบจะใช้คุณลักษณะการเบลอใบหน้าโดยอัตโนมัติก่อนที่จะวิเคราะห์ภาพเพื่อปกป้องความเป็นส่วนตัวของแต่ละบุคคล ขั้นตอนการเบลอนี้ช่วยจัดการกับข้อกังวลด้านความเป็นส่วนตัวโดยป้องกันการระบุตัวตนตามลักษณะใบหน้า ด้วยการเบลอ จะไม่มีการจดจำใบหน้าหรือการจับคู่เทมเพลตใบหน้า การระบุตัวตนของบุคคลที่มีชื่อเสียงนั้นอาศัยตัวชี้นำตามบริบท เช่น เครื่องแบบหรือการตั้งค่าเฉพาะ ไม่ใช่บนใบหน้าของพวกเขา มาตรการความเป็นส่วนตัวนี้ไม่ควรส่งผลกระทบต่อคุณภาพของผลลัพธ์ที่คุณได้รับ การเบลอใบหน้าอาจถูกอ้างอิงเป็นครั้งคราวในการตอบสนองของระบบ

เรียนรู้เพิ่มเติมใน การเบลอใบหน้า

สิ่งใดที่อาจเป็นอันตรายเมื่อใช้รูปภาพหรือเอกสารในพร้อมท์

การอนุมัติ AI ลดความเสี่ยงส่วนใหญ่ที่เกี่ยวข้องเมื่อใช้รูปภาพหรือเอกสารในพร้อมท์ แต่ความเสี่ยงบางอย่างยังคงต้องได้รับการดูแลเพิ่มเติมจากผู้สร้างพร้อมท์:

  • รูปภาพหรือเอกสารอาจมีข้อความหรือภาพที่เป็นอันตรายซึ่งอาจส่งผลต่อกระบวนการที่ตามมาของคุณ

  • รูปภาพหรือเอกสารอาจมีคำแนะนำพิเศษและอาจซ่อนอยู่ซึ่งอาจทำให้เสี่ยงหรือยกเลิกพร้อมท์เริ่มต้น

  • รูปภาพหรือเอกสารอาจมีคำแนะนำที่อาจนำไปสู่การสร้างสรรค์เนื้อหาที่อยู่ภายใต้ทรัพย์สินทางปัญญา

  • พร้อมท์สามารถสร้างความคิดเห็นที่มีอคติต่อรูปภาพหรือเอกสารได้

  • การคัดแยกข้อมูลจากภาพหรือเอกสารที่มีคุณภาพต่ําอาจนําไปสู่การหลอนประสาทหลอน

ปัญหาประเภทใดบ้างที่อาจเกิดขึ้นเมื่อใช้การอนุมัติ AI และฉันสามารถจัดการปัญหาเหล่านั้นได้อย่างไร

เมื่อใช้การอนุมัติ AI คุณอาจพบปัญหาเช่น การวิเคราะห์ความล้มเหลว (เมื่อ AI ไม่สามารถใช้กฎได้อย่างมั่นใจ) การตัดสินใจอนุมัติที่ไม่ถูกต้อง (ผลบวก/ลบเท็จ) ผลลัพธ์ที่ไม่สอดคล้องกันในคําขอที่คล้ายกัน หรือการประมวลผลความล่าช้าในกรณีที่ซับซ้อน หากต้องการจัดการความท้าทายเหล่านี้อย่างมีประสิทธิภาพ ตรวจสอบให้แน่ใจว่าเส้นทางเวิร์กโฟลว์ของคุณร้องขอไปยังลําดับขั้นของมนุษย์

ใช้การทดสอบที่สอดคล้องกันและเข้มงวดตลอดการพัฒนาและการปรับใช้เพื่อระบุจุดความล้มเหลวที่อาจเกิดขึ้นในช่วงต้น ใช้การตั้งค่าอุณหภูมิต่ําเพื่อผลลัพธ์ที่คาดการณ์ได้ และปรับปรุงพร้อมท์ของคุณอย่างต่อเนื่องตามข้อผิดพลาดที่สังเกตได้ การตรวจสอบปกติและการปรับปรุงซ้ําจะช่วยรักษาความน่าเชื่อถือและความถูกต้องของระบบเมื่อเวลาผ่านไป