แชร์ผ่าน


การสร้างการทดสอบด้วยความช่วยเหลือของ AI ด้วย GitHub Copilot (ตัวอย่าง)

หมายเหตุ

คุณลักษณะการแสดงตัวอย่างไม่ได้มีไว้สำหรับการนำไปใช้งานจริง และอาจมีการจำกัดฟังก์ชันการทำงาน คุณลักษณะเหล่านี้สามารถใช้ได้ก่อนการเปิดตัวอย่างเป็นทางการ เพื่อให้ลูกค้าสามารถเข้าใช้งานได้ก่อนเวลาและให้ข้อคิดเห็น

การสร้างแผนการทดสอบที่ครอบคลุมสำหรับแอปพลิเคชันอาจใช้เวลานาน โดยเฉพาะในสถานการณ์ที่ซับซ้อน Power Platform เครื่องมือสร้างที่ช่วยด้วย AI เช่น GitHub Copilot สามารถเร่งกระบวนการนี้ได้อย่างมากโดยการสร้างเทมเพลตการทดสอบ แนะนำกรณีทดสอบ และสร้างโค้ดสำเร็จรูปแบบอัตโนมัติ

คู่มือนี้จะอธิบายวิธีการใช้งาน GitHub Copilot ร่วมกับ Power Platform โซลูชันการควบคุมแหล่งที่มาเพื่อสร้างแผนการทดสอบ Test Engine อย่างมีประสิทธิภาพ

ข้อกำหนดเบื้องต้น

ก่อนที่คุณจะเริ่มต้น ให้แน่ใจว่าคุณมี:

การตั้งค่าสภาพแวดล้อมการเขียนการทดสอบของคุณ

หากต้องการเพิ่มประสิทธิภาพการเขียนการทดสอบด้วยความช่วยเหลือของ AI ให้รวมเครื่องมือเหล่านี้ในเวิร์กโฟลว์ที่มีโครงสร้าง:

  1. รับไฟล์ต้นฉบับของคุณ
  2. เริ่มต้นคลังเก็บ git สำหรับการควบคุมเวอร์ชัน (หากยังไม่ได้ทำ)
  3. สร้างโฟลเดอร์ทดสอบเฉพาะในที่เก็บโซลูชันของคุณ
  4. เปิดโฟลเดอร์โซลูชันใน Visual Studio รหัส

การใช้ GitHub Copilot สำหรับการสร้างการทดสอบ

GitHub Copilot สามารถช่วยคุณสร้างส่วนประกอบการทดสอบต่างๆ ได้โดยอิงตามโซลูชันที่ควบคุมแหล่งที่มาของคุณ วิธีใช้ความสามารถของมันอย่างมีประสิทธิภาพมีดังนี้:

การใช้เอกสารตัวอย่างเป็นบริบท

แคตตาล็อกตัวอย่างเครื่องมือทดสอบ มีแหล่งข้อมูลอ้างอิงที่หลากหลายสำหรับ GitHub Copilot คุณสามารถช่วยให้ Copilot สร้างการทดสอบคุณภาพสูงได้โดย:

  • รวมไฟล์ samples.md ไว้ในพื้นที่ทำงานของคุณ
  • อ้างอิงตัวอย่างเฉพาะในคำเตือนของคุณ
  • การให้ลิงก์ไปยังตัวอย่างที่เก็บข้อมูล GitHub

ตัวอย่างเช่น คุณสามารถ:

  • เปิดทั้งโค้ดแอปพลิเคชันของคุณและไฟล์ samples.md ใน VS Code
  • ขอให้ Copilot สร้างการทดสอบ "ที่คล้ายกับตัวอย่าง ButtonClicker" หรือ "โดยใช้รูปแบบจาก Dataverse ตัวอย่าง"
  • อ้างอิงความสามารถเฉพาะจากตัวอย่างที่ตรงกับความต้องการการทดสอบของคุณ

แนวทางนี้ช่วยให้ Copilot เข้าใจรูปแบบของ Test Engine และสร้างการทดสอบที่แม่นยำยิ่งขึ้น Power Platform

การทำงานกับ GitHub Copilot ในโหมดตัวแทน

Visual Studio GitHub Copilot Chat ของ Code นำเสนอ โหมดตัวแทน ที่สามารถช่วยสร้างการทดสอบตามไฟล์โซลูชันของคุณได้ โหมดนี้ช่วยให้ Copilot สามารถเข้าถึงและเข้าใจบริบทของโครงการของคุณได้ลึกซึ้งยิ่งขึ้น

ในการใช้โหมดตัวแทนเพื่อสร้างการทดสอบ:

  1. ใน VS Code ให้เปิด GitHub Copilot Chat (Ctrl+Shift+I)
  2. เลือก ตัวแทน จากตัวเลือกโหมด Copilot
  3. สร้างคำเตือนโดยละเอียดเกี่ยวกับการทดสอบที่คุณต้องการสร้าง

ตัวอย่างคำเตือนสำหรับการสร้างการทดสอบ

ลองใช้คำเตือนเช่นนี้เพื่อสร้างการทดสอบ:

เป้าหมาย:
สร้างชุดการทดสอบที่ครอบคลุมสำหรับแอปพลิเคชันแคนวาสโดยใช้ Power Apps เครื่องมือทดสอบ ซึ่งสร้างแบบจำลองตามตัวอย่าง ButtonClicker

คำเตือน:
สร้างการทดสอบสำหรับ ./SolutionPackage/src/CanvasApps/src/MyApp/Src/App.fx.yaml โดยใช้ตัวอย่างที่ https://github.com/microsoft/PowerApps-TestEngine/tree/main/samples/buttonclicker เป็นข้อมูลอ้างอิง สร้างกรณีที่คาดหวัง กรณีขอบ และกรณีข้อยกเว้น การทดสอบควรสร้างไฟล์ทดสอบ YAML และขั้นตอนการทดสอบ config.json และ RunTest.ps1 ตามตัวอย่างเพื่อให้สามารถรันการทดสอบได้ Power Fx

เป้าหมาย:
สร้างแผนการทดสอบโดยละเอียดสำหรับแอปที่ขับเคลื่อนด้วยโมเดลเพื่อให้แน่ใจว่าฟังก์ชันหลักและตรรกะทางธุรกิจทำงานตามที่คาดหวัง

คำเตือน:
สร้างแผนการทดสอบที่ครอบคลุมสำหรับแอปที่ขับเคลื่อนด้วยโมเดลของฉันซึ่งอยู่ที่ ./SolutionPackage/src/Other/Solution.xml การทดสอบควรตรวจสอบการโหลดแบบฟอร์ม การสร้างเรกคอร์ด และการดำเนินการกฎทางธุรกิจ สร้างการทดสอบ YAML ขั้นตอน Power Fx และสคริปต์ PowerShell เพื่อเรียกใช้การทดสอบ

เป้าหมาย:
สร้างแผนการทดสอบสำหรับ Dataverse เอนทิตีเพื่อตรวจสอบการดำเนินการ CRUD ผ่าน Power Fx การดำเนินการ

คำเตือน:
สร้างแผนการทดสอบที่ครอบคลุมสำหรับนิติบุคคลของฉัน Dataverse การทดสอบควรดำเนินการสร้าง อัปเดต และลบ Power Fx สร้างการทดสอบ YAML ขั้นตอน Power Fx และสคริปต์ PowerShell เพื่อเรียกใช้การทดสอบ

ทำความเข้าใจส่วนประกอบการทดสอบที่สร้างขึ้น

เมื่อ GitHub Copilot สร้างการทดสอบ โดยทั่วไปจะสร้างส่วนประกอบต่อไปนี้:

  • แผนการทดสอบ YAML: กำหนดโครงสร้างการทดสอบ URL แอป และขั้นตอนการทดสอบ
  • Power Fx ขั้นตอนการทดสอบ: ประกอบด้วยตรรกะการทดสอบโดยใช้ Power Fx นิพจน์
  • config.json: การกำหนดค่าสำหรับพารามิเตอร์การดำเนินการทดสอบ
  • RunTest.ps1: สคริปต์ PowerShell เพื่อดำเนินการทดสอบ

ตัวอย่าง: โครงสร้างการทดสอบที่สร้างขึ้น

MyAppTests/
├── MyAppTest.fx.yaml     # Power Fx test steps
├── MyAppTest.yml         # Test plan definition
├── config.json           # Test configuration
└── RunTest.ps1           # Test execution script

แนวทางปฏิบัติที่ดีที่สุดสำหรับการสร้างการทดสอบด้วยความช่วยเหลือของ AI

พิจารณาส่วนต่อไปนี้เพื่อให้ได้ประโยชน์สูงสุดในการสร้างการทดสอบ Test Engine GitHub Copilot

ให้บริบทที่ชัดเจนในคำกระตุ้นของคุณ

ระบุให้ชัดเจนว่าคุณต้องการทดสอบอะไรและรวมการอ้างอิงถึง:

  • ไฟล์ที่แน่นอนที่จะทดสอบ
  • แบบทดสอบตัวอย่างเพื่อใช้เป็นแม่แบบ
  • สถานการณ์การทดสอบเฉพาะที่คุณต้องการครอบคลุม
  • ข้อกำหนดการพิสูจน์ตัวตนหรือสภาพแวดล้อมใดๆ

การใช้ตัวอย่าง Test Engine เพื่อเป็นบริบท

เอกสารประกอบ samples.md จะรวบรวมตัวอย่างทั้งหมดที่มีอยู่จากที่เก็บ Test Engine ซึ่งสามารถเป็นข้อมูลอ้างอิงที่ยอดเยี่ยมเมื่อสร้างคำแนะนำสำหรับ GitHub Copilot ตัวอย่างเช่น เมื่อทดสอบแอปแคนวาสด้วยปุ่ม คุณอาจอ้างอิง ตัวอย่างการคลิกปุ่ม:

คำเตือน:
สร้างการทดสอบสำหรับแอป Canvas ของฉันที่ ./SolutionPackage/src/CanvasApps/src/MyApp/Src/App.fx.yaml โดยใช้ตัวอย่าง ButtonClicker จาก https://github.com/microsoft/PowerApps-TestEngine/tree/main/samples/buttonclicker การทดสอบควรจะ:
1. ตรวจสอบว่าปุ่มตัวนับของฉันเพิ่มค่าบนหน้าจอ
2. เงื่อนไขขอบเขตการทดสอบ (เช่น ค่าสูงสุด)
3. รวม OnTestCaseStart และ OnTestCaseComplete lifecycle hooks
4. สร้าง config.json ด้วยตัวแปรสภาพแวดล้อมที่เหมาะสม

แนวทางนี้ช่วยให้ Copilot เข้าใจโครงสร้างการทดสอบและสร้างการทดสอบที่เกี่ยวข้องกับบริบทที่แม่นยำยิ่งขึ้นโดยอิงจากตัวอย่างที่พิสูจน์แล้ว

ใช้โซลูชันที่ควบคุมจากแหล่งที่มาเป็นบริบท

Copilot ทำงานได้ดีที่สุดเมื่อสามารถวิเคราะห์โครงสร้างโซลูชันของคุณได้ ใช้ การควบคุมแหล่งที่มาสำหรับ Power Platform โซลูชัน เพื่อให้มีบริบทนี้ บริบทนี้ช่วยให้ Copilot สามารถ:

  • ทำความเข้าใจโครงสร้างแอปของคุณ
  • ระบุชื่อและคุณสมบัติการควบคุม
  • สร้างขั้นตอนการทดสอบที่แม่นยำยิ่งขึ้น
  • อ้างอิงเส้นทางไฟล์ที่ถูกต้อง

ตรวจสอบและปรับปรุงการทดสอบที่สร้างขึ้น

แม้ว่าการทดสอบที่สร้างโดย AI จะเป็นจุดเริ่มต้นที่ดี แต่อย่างไรก็ตาม:

  • ตรวจสอบการอ้างอิงการควบคุมให้ตรงกับแอปพลิเคชันของคุณ
  • เพิ่มการยืนยันสำหรับฟังก์ชันการทำงานที่สำคัญต่อธุรกิจ
  • ตรวจสอบให้แน่ใจว่ากรณีขอบได้รับการจัดการอย่างถูกต้อง
  • ตรวจสอบการกำหนดค่าการพิสูจน์ตัวตน

ผสมผสานกับความเชี่ยวชาญแบบแมนนวล

สำหรับสถานการณ์การทดสอบที่ซับซ้อน ให้ใช้ GitHub Copilot เพื่อ:

  • สร้างกรอบและโครงสร้างการทดสอบ
  • สร้างรูปแบบการตรวจสอบมาตรฐาน
  • แนะนำกรณีขอบที่ควรพิจารณา

จากนั้นเสริมด้วยความเชี่ยวชาญด้านโดเมนของคุณเพื่อ:

  • กฎการตรวจสอบเฉพาะธุรกิจ
  • ข้อควรพิจารณาด้านสิ่งแวดล้อม
  • ข้อมูลการทดสอบเฉพาะทาง

รูปแบบการสร้างการทดสอบทั่วไป

ส่วนนี้ประกอบด้วยรูปแบบการสร้างการทดสอบทั่วไปบางส่วน:

การทดสอบแอป Canvas

สำหรับแอปแคนวาส ให้ใช้คำเตือนที่อ้างอิงไฟล์ App.fx.yaml ในโซลูชันที่ควบคุมแหล่งที่มาของคุณ:

คำเตือน:
สร้างการทดสอบสำหรับแอป Canvas ของฉันที่ ./SolutionPackage/src/CanvasApps/src/MyExpenseApp/Src/App.fx.yaml ที่ตรวจสอบกระบวนการส่งค่าใช้จ่าย การทดสอบควรกรอกช่องค่าใช้จ่าย ส่งแบบฟอร์ม และตรวจสอบว่าข้อความยืนยันปรากฏขึ้น

การทดสอบแอปที่ขับเคลื่อนด้วยโมเดล

สำหรับแอปที่ขับเคลื่อนด้วยโมเดล ให้เน้นที่การนำทางเอนทิตี การโต้ตอบแบบฟอร์ม และกฎทางธุรกิจ:

คำเตือน:
สร้างการทดสอบสำหรับแอปที่ขับเคลื่อนด้วยโมเดลของฉันเพื่อทดสอบแบบฟอร์มเอนทิตีบัญชี การทดสอบควรสร้างบันทึกบัญชีใหม่ ตรวจสอบช่องที่จำเป็น และตรวจสอบว่ากฎทางธุรกิจสำหรับการคำนวณวงเงินสินเชื่อทำงานถูกต้อง

การทดสอบ Dataverse ส่วนขยาย

สำหรับการทดสอบ ให้เน้นการดำเนินการข้อมูลและการตรวจสอบตรรกะทางธุรกิจ: Dataverse

คำเตือน:
สร้างการทดสอบ Dataverse ที่ตรวจสอบปลั๊กอินที่กำหนดเองในโซลูชันของฉัน การทดสอบควรสร้างบันทึกการทดสอบ ทริกเกอร์การดำเนินการปลั๊กอิน และตรวจสอบว่าการแปลงข้อมูลที่คาดหวังเกิดขึ้นจริง

คำเตือนการทดสอบเฉพาะตัวอย่าง

หากต้องการให้สร้างการทดสอบได้แม่นยำที่สุด โปรดอ้างอิงตัวอย่างเฉพาะจากแค็ตตาล็อกตัวอย่างเครื่องมือทดสอบ ที่ตรงกับความต้องการการทดสอบของคุณ ต่อไปนี้เป็นคำแนะนำที่ปรับแต่งให้เหมาะกับสถานการณ์การทดสอบทั่วไป:

ตัวอย่างคำสั่ง ButtonClicker

ตัวอย่าง ButtonClicker สาธิตการทดสอบฟังก์ชันการทำงานของตัวนับขั้นพื้นฐาน ใช้คำเตือนเหล่านี้:

คำเตือน:
สร้างการทดสอบสำหรับแอปตัวนับของฉันด้วยโครงสร้างที่คล้ายกับตัวอย่าง ButtonClicker แอปของฉันมีปุ่มชื่อ "IncrementBtn" และ "ResetBtn" พร้อมด้วย "CounterLabel" ที่แสดงจำนวนปัจจุบัน สร้างการทดสอบเพื่อตรวจสอบว่าปุ่มทั้งสองทำงานถูกต้องและจำนวนสูงสุดคือ 10

คำเตือน:
สร้างการทดสอบสำหรับแอปการโต้ตอบปุ่มของฉันโดยใช้ตัวอย่าง ButtonClicker เป็นข้อมูลอ้างอิง แอปของฉันมี "SubmitButton" ที่ควรเปิดใช้งานเฉพาะเมื่อกรอกข้อมูลในช่อง "NameInput" และ "EmailInput" เรียบร้อยแล้ว สร้างแผนการทดสอบพร้อมขั้นตอนในการตรวจสอบพฤติกรรมนี้ Power Fx

ตัวอย่าง BasicGallery และ NestedGallery แสดงวิธีการทดสอบการโต้ตอบของแกลเลอรี:

คำเตือน:
สร้างการทดสอบสำหรับแอปแกลเลอรีของฉัน โดยที่ฉันมีแกลเลอรี "ผลิตภัณฑ์" ที่มีรายการผลิตภัณฑ์ที่มีตัวควบคุม "TitleLabel", "PriceLabel" และ "SelectButton" ใช้โครงสร้างตัวอย่าง BasicGallery เพื่อตรวจสอบว่าสามารถเลือกสินค้าได้และรายละเอียดที่ถูกต้องปรากฏใน "DetailPanel" หรือไม่

คำเตือนการดำเนินการข้อมูล

ตัวอย่าง Dataverse แสดงการทดสอบการดำเนินการข้อมูล:

คำเตือน:
สร้างการทดสอบสำหรับแอป CRM ของฉันโดยใช้รูปแบบตัวอย่าง Dataverse ทดสอบว่าฉันสามารถสร้างบันทึกการติดต่อใหม่ อัปเดต และตรวจสอบว่าการเปลี่ยนแปลงยังคงอยู่หรือไม่ รวมทั้งการทดสอบ UI และการดำเนินการโดยตรง Dataverse

คำเตือนการทดสอบ AI

สำหรับการทดสอบฟังก์ชันการทำงานที่ขับเคลื่อนด้วย AI โปรดดู ตัวอย่าง AI Prompt:

คำเตือน:
สร้างการทดสอบสำหรับแอปวิเคราะห์ความรู้สึกของฉันโดยอิงจากตัวอย่าง AI Prompt แอปของฉันมีกล่องข้อความ "FeedbackInput" และใช้ AI Builder เพื่อจัดประเภทว่าเป็นเชิงบวก เชิงลบ หรือเป็นกลาง สร้างการทดสอบที่ตรวจสอบว่าอินพุตที่แตกต่างกันสร้างเอาต์พุตที่คาดหวังภายในเกณฑ์ที่ยอมรับได้

เทคนิคขั้นสูง

หัวข้อนี้แสดงตัวอย่างความสามารถในการแจ้งเตือนขั้นสูง

การสร้างชุดการทดสอบหลายสภาพแวดล้อม

คุณสามารถแจ้งให้ Copilot สร้างการทดสอบที่ใช้งานได้กับหลายสภาพแวดล้อมได้:

คำเตือน:
สร้างชุดการทดสอบสำหรับแอปของฉันที่สามารถทำงานในสภาพแวดล้อม DEV, TEST และ PROD โดยมีตัวแปรการกำหนดค่าที่เหมาะสมสำหรับแต่ละสภาพแวดล้อม

การสร้างสถานการณ์จำลองการล้อเลียนข้อมูล

สำหรับการทดสอบแบบแยกส่วนด้วย การล้อเลียนตัวเชื่อมต่อ:

คำเตือน:
สร้างการทดสอบด้วยการตอบสนองของตัวเชื่อมต่อจำลองสำหรับแอปของฉันที่ใช้ตัวเชื่อมต่อ Outlook Office 365 การทดสอบควรจำลองการรับอีเมลและตรวจสอบตรรกะการประมวลผลของแอป

การทดสอบความสามารถของ AI และการจัดการกับผลลัพธ์ที่ไม่แน่นอน

เมื่อคุณทำงานกับแอปพลิเคชันที่ขับเคลื่อนด้วย AI การทดสอบจะนำมาซึ่งความท้าทายเฉพาะตัว เนื่องจากผลลัพธ์ของ AI อาจแตกต่างกันเล็กน้อยระหว่างการทำงาน แม้ว่าอินพุตจะเป็นแบบเดียวกันก็ตาม พฤติกรรมที่ไม่แน่นอนนี้ต้องใช้แนวทางการทดสอบพิเศษ

ทำความเข้าใจเกี่ยวกับการทดสอบแบบไม่กำหนด

การทดสอบแบบไม่กำหนดแน่นอนเกี่ยวข้องกับการตรวจสอบผลลัพธ์ที่อาจแตกต่างกันไปอย่างถูกต้องในแต่ละการทดสอบ:

  • ผลลัพธ์ของโมเดล AI: การตอบสนองจากโมเดล AI เช่น GPT หรือส่วนประกอบ AI Builder ที่กำหนดเอง
  • คะแนนความเชื่อมั่น: การประเมินเชิงตัวเลขที่อาจผันผวนภายในช่วงที่ยอมรับได้
  • เนื้อหาที่สร้างขึ้น: ข้อความหรือคำแนะนำที่สร้างโดยระบบ AI

การใช้ Preview.AIExecutePrompt สำหรับการทดสอบความสามารถของ AI อย่างแม่นยำ

Test Engine จัดให้มี Preview.AIExecutePrompt ซึ่งช่วยให้สามารถตรวจสอบการตอบสนองของ AI ได้อย่างชัดเจน แนวทางนี้ช่วยให้คุณสามารถ:

  • ดำเนินการแจ้งเตือน AI ภายในสถานการณ์การทดสอบ
  • วิเคราะห์และตรวจสอบคำตอบที่มีโครงสร้าง
  • ตรวจสอบว่าผลลัพธ์ที่สำคัญตรงตามความคาดหวังแม้จะมีความแตกต่างที่อาจเกิดขึ้น

ตัวอย่าง: การประเมินคะแนนด้วย AI Builder

ตัวอย่างต่อไปนี้สาธิตการใช้ฟังก์ชัน Preview.AIExecutePrompt เพื่อทดสอบระบบการให้คะแนนที่ขับเคลื่อนด้วย AI:

EvaluateTestQuestionPrompt(Prompt: TestQuestion): TestResult =
  With({
    Response: ParseJSON(
      Preview.AIExecutePrompt("PromptEvaluator",
      {
        Context: "You are a helpful agent asking about external customer service questions.",
        Question: Prompt.Question
      }).Text)
  },If(
    IsError(AssertNotError(Prompt.ExpectedRating=Response.Rating, Prompt.Question & ", Expected " & Prompt.ExpectedRating & ", Actual " & Response.Rating)),
    {PassFail: 1, Summary: Prompt.Question & ", Expected " & Prompt.ExpectedRating & ", Actual " & Response.Rating}, {PassFail: 0, Summary: "Pass " & Prompt.Question}
  ))

ในตัวอย่างนี้:

  • การทดสอบจะดำเนินการแจ้งเตือน AI ตามโมเดล "PromptEvaluator"
  • มันผ่านบริบทและคำถามเพื่อการประเมิน
  • ตรวจสอบว่าคะแนนที่ส่งกลับมาตรงกับค่าที่คาดหวัง
  • ให้ข้อเสนอแนะที่ชัดเจนเกี่ยวกับความสำเร็จหรือความล้มเหลวของการทดสอบ

คุณสามารถสำรวจการใช้งานทั้งหมดได้ใน ตัวอย่าง AI Prompt จากที่เก็บ PowerApps-TestEngine

การรวมการทดสอบที่ตระหนักถึง AI

เมื่อใช้ GitHub Copilot เพื่อสร้างการทดสอบสำหรับแอปพลิเคชันที่ขับเคลื่อนด้วย AI:

คำเตือน:
สร้างการทดสอบสำหรับแอปที่ขับเคลื่อนด้วย AI ของฉันซึ่งใช้ AI Builder การประมวลผลแบบฟอร์ม รวมขั้นตอนการทดสอบที่ตรวจสอบผลลัพธ์ AI ด้วยค่าความคลาดเคลื่อนที่เหมาะสมสำหรับผลลัพธ์ที่ไม่แน่นอน

การแก้ไขปัญหาและการปรับปรุง

หาก GitHub Copilot สร้างการทดสอบที่ไม่ตรงตามความต้องการของคุณ:

  • ปรับแต่งคำเตือนของคุณ: ระบุให้ชัดเจนยิ่งขึ้นเกี่ยวกับสิ่งที่คุณต้องการทดสอบ
  • ให้ตัวอย่าง: ลิงก์ไปยังตัวอย่างการทดสอบเฉพาะที่ตรงกับสไตล์ที่คุณต้องการ
  • แบ่งการทดสอบที่ซับซ้อนออกเป็นส่วนๆ: ร้องขอการสร้างส่วนประกอบการทดสอบที่เล็กลงและเน้นเฉพาะ
  • ทำซ้ำ: ใช้คำตอบของ Copilot เพื่อปรับแต่งคำกระตุ้นถัดไปของคุณ

สำรวจคุณลักษณะของเครื่องมือทดสอบ
เรียกดูแคตตาล็อกตัวอย่างเครื่องมือทดสอบ
เรียนรู้เกี่ยวกับฟังก์ชันการทดสอบ Power Fx
ทำความเข้าใจรูปแบบการทดสอบ YAML
สำรวจตัวเลือกการตรวจสอบสิทธิ์
การฝึกอบรม: การสร้างแอปพลิเคชันด้วยโหมดตัวแทน GitHub Copilot