중요
이 기능은 공개 미리 보기 고객만을 위한 것입니다. 미리 보기의 기능은 완료되지 않을 수 있으며 더 광범위한 릴리스에서 사용할 수 있게 되기 전에 변경될 수 있습니다.
비즈니스 데이터를 Viva Insights 업로드하면 Copilot 사용이 organization 가장 중요한 비즈니스 결과에 미치는 영향을 이해하는 데 도움이 됩니다. 비즈니스 결과에는 영업 팀에서 보낸 이메일 수 또는 마감된 거래 수와 같은 작업 및 작업 수준 모두에서 생산성 메트릭이 포함될 수 있습니다.
비즈니스 데이터는 인사이트 관리자가 Viva Insights 직접 업로드하는 개별 .csv 파일을 통해 또는 사용자, 원본 시스템 관리자 및 Azure 기여자 설정을 통해 azure Blob 가져오기를 통해 두 가지 방법 중 하나로 Viva Insights 웹앱에 표시될 수 있습니다.
이 문서에서는 .csv 파일을 업로드하는 첫 번째 옵션에 대해 설명합니다.
워크플로
업로드할 비즈니스 데이터를 준비합니다.
.csv 파일을 업로드합니다.
필드를 매핑합니다.
앱은 데이터의 유효성을 검사합니다. 유효성 검사에 성공하지 못한 경우 유효성 검사 실패에 설명된 몇 가지 옵션 중에서 선택할 수 있습니다.
앱은 데이터를 처리합니다. 처리에 성공하지 못한 경우 처리 실패에 설명된 몇 가지 옵션 중에서 선택할 수 있습니다.
데이터가 성공적으로 유효성을 검사하고 처리하면 전체 데이터 업로드 작업이 완료됩니다.
비즈니스 데이터 준비
비즈니스 데이터는 서로 다른 데이터 원본에서 발생할 수 있으며 서로 다른 주기로 새로 고칠 수 있습니다. 예를 들어 고객 만족도 및 판매 활동 메트릭에는 다른 원본 시스템과 원본 관리자가 있을 수 있습니다. Viva Insights 이를 "데이터 세트"라고 합니다. 각 데이터 세트에 대해 별도의 .csv 업로드를 설정해야 합니다. 너무 많거나 너무 적은 고유 값, 중복 필드, 잘못된 데이터 형식 등과 같은 일반적인 문제를 방지하려면 데이터 구조 및 지침에 대한 샘플 .csv 템플릿 을 참조하세요. 파일 규칙 및 유효성 검사 오류에 대해 자세히 알아봅니다.
각 데이터 세트에 대해 별도의 .csv 파일을 만들려면 다음과 같이 데이터를 구조화합니다.
가져올 모든 필드를 파일에 추가합니다.
필수 필드는 "PersonId" 및 "StartDate"입니다.
모든 비즈니스 데이터는 매월 및 1인당 수준으로 집계되어야 합니다.
"StartDate"는 월의 데이터를 나타내야 하며 날짜는 월의 첫 번째 데이터를 나타내야 합니다. 예를 들어 2024년 1월은 2024년 1월 1일로 표시되어야 합니다. 3개월 이상의 비즈니스 데이터를 사용하는 것이 좋습니다.
분석하려는 각 비즈니스 결과 메트릭에 대한 열을 추가합니다.
참고
고급 분석의 보고서에서 사용할 숫자 비즈니스 결과 데이터를 업로드해야 합니다.
설정
1. 데이터 세트 지정
.csv 파일에 비즈니스 데이터 세트를 업로드하려면 다음 단계를 수행합니다.
Viva Insights 웹앱 관리자 환경을 엽니다.
플랫폼 설정에서 비즈니스 데이터를 선택합니다.
데이터 원본 관리를 선택합니다. .CSV 업로드 옆에 있는 관리를 선택합니다. 첫 번째 업로드인 경우 시작이 표시됩니다.
데이터 세트 추가를 선택합니다. 첫 번째 업로드인 경우 5단계로 직접 이동합니다.
증분 업로드 및 이 데이터에 쉽게 액세스하려면 데이터 세트 형식 과 데이터 세트 이름을 입력합니다. 예를 들어 고객 만족도 및 계정 보존에 대해 영업 팀에서 두 개의 서로 다른 데이터 세트를 업로드할 수 있습니다. 이러한 데이터 세트에 "Sales" 형식을 할당하고 이름을 "CSAT" 및 "계정"으로 지정할 수 있습니다. 분석가는 쿼리를 설정하는 동안 이름과 형식을 검색하여 이 데이터를 검색할 수 있습니다.
- 이름 및 형식에는 공백이 포함되어서는 안 됩니다.
- 데이터 세트 형식의 경우 목록에서 옵션을 선택하거나 사용자 고유의 형식을 입력할 수 있습니다. "Survey", "CRM", "Person", "Signal", "AnalystUploadedData", "UserSkills", "HeirarchicalSkills", "RelatedSkills", "SkillsLibrary", "ManagerHierarchy", "Learning", "InteractiveExplorationPersonOutput" 또는 "None"과 같은 시스템 예약 형식을 제외한 모든 고유 형식을 할당할 수 있습니다.
참고
이후에는 데이터 세트 이름 및 형식을 변경할 수 없습니다.
2. 파일 업로드 및 필드 정의
.csv 파일을 업로드하고 다음을 선택합니다.
특성 검토 페이지가 표시됩니다. 데이터에서 인사이트를 보려면 .csv 파일의 필드(열)를 앱이 인식하는 필드 이름으로 매핑해야 합니다. 필요한 필드인 PersonID 및 StartDate를 포함하는 열을 지정해야 합니다. 이러한 열이 자동으로 식별되면 선택한 특성을 검토할 수 있습니다.
중요
모든 필수 필드에는 모든 행에 null이 아닌 유효한 값이 있어야 합니다. .csv 파일의 열 머리글이 Viva Insights 값 이름과 정확히 일치하지 않더라도 필요한 모든 Viva Insights 값을 매핑해야 합니다.
3. 유효성 검사
특성을 매핑한 후 앱은 데이터 유효성 검사를 시작합니다. 대부분의 경우 파일 유효성 검사가 신속하게 완료되어야 합니다. 비즈니스 데이터 파일이 큰 경우 유효성 검사에 최대 1~2분이 걸릴 수 있습니다.
이 단계가 완료되면 유효성 검사가 성공하거나 실패합니다. 결과에 따라 비즈니스 데이터에서 기록 가져오기 테이블에서 성공 상태 또는 실패 상태 받게 됩니다.
다음에 수행되는 작업에 대한 자세한 내용은 적절한 섹션으로 이동하세요.
유효성 검사 성공
유효성 검사가 성공하면 Viva Insights 새 데이터 처리를 시작합니다. 처리는 몇 시간에서 하루 정도 걸릴 수 있습니다. 처리하는 동안 가져오기 기록 테이블에 "처리" 상태 표시됩니다.
처리가 완료되면 성공하거나 실패합니다. 결과에 따라 가져오기 기록 테이블에서 "성공" 또는 "실패" 상태 찾을 수 있습니다.
처리 성공
가져오기 기록 테이블에서 "성공" 상태 찾으면 업로드 프로세스가 완료됩니다.
"성공" 상태 받은 후 다음을 수행할 수 있습니다.
- 보기(눈) 아이콘을 선택하여 유효성 검사 결과의 요약을 확인합니다.
- 매핑 아이콘을 선택하여 워크플로에 대한 매핑 설정을 확인합니다.
참고
각 테넌트는 한 번에 하나의 가져오기만 진행할 수 있습니다. 하나의 데이터 파일의 워크플로를 완료해야 합니다. 즉, 다음 데이터 파일의 워크플로를 시작하기 전에 성공적인 유효성 검사 및 처리로 안내하거나 중단해야 합니다.
처리 실패
처리에 실패하면 가져오기 기록 테이블에 "처리 실패" 상태 있습니다. 처리가 성공하려면 원본 시스템 관리자가 오류를 수정하고 데이터를 다시 Viva Insights 푸시해야 합니다.
참고
처리 실패는 일반적으로 백 엔드 오류로 인해 발생합니다. 지속적인 처리 오류가 표시되고 가져온 파일의 데이터를 수정한 경우 지원 티켓을 우리와 함께 기록합니다.
유효성 검사 실패
데이터 유효성 검사가 실패하면 가져오기 기록 테이블에 "유효성 검사 실패" 상태 표시됩니다. 유효성 검사가 성공하려면 관리자가 오류를 수정하고 데이터를 다시 Viva Insights 푸시해야 합니다. 작업에서 다운로드 아이콘을 선택하여 오류 로그를 다운로드합니다. 이 로그 파일은 유효성 검사 오류를 발생시킨 데이터 문제를 설명합니다. 이 정보를 사용하여 다음에 수행할 작업을 결정합니다. 원본 데이터 수정 또는 필수 및 사용자 지정 필드 정의 변경.
데이터의 오류 정보
모든 데이터 행 또는 열에 특성에 대한 잘못된 값이 있는 경우 데이터 원본 관리자가 원본 데이터를 수정할 때까지 전체 가져오기가 실패합니다.
발생하는 오류를 resolve 데 도움이 될 수 있는 특정 서식 규칙을 위해 비즈니스 데이터를 준비하는 방법에 대해 자세히 알아봅니다. 다른 파일 규칙 및 유효성 검사 오류에 대해 알아봅니다.
데이터 원본 관리 및 변경
데이터 가져오기를 설정했으면 아래 단계를 사용하여 데이터 세트를 삭제하거나, 데이터 세트를 추가하거나, 기존 데이터 세트에 새 데이터를 추가합니다.
비즈니스 데이터 페이지에서 데이터 원본 관리를 선택합니다.
.CSV 업로드에서 관리를 선택합니다.
동일한 데이터 세트에 대한 증분 업로드의 경우 위에 설명된 프로세스를 따릅니다. 모든 업로드에 필요한 필드가 필요합니다.