Riskerar vi dataläckage om vi inför Microsoft Copilot?

Dataläckage Microsoft Copilot

AI banar vägen för helt nya arbetssätt och vänder upp och ner på hur vi förhåller oss till teknologi. Fråga efter vad du vill och Microsoft Copilot är tillräckligt smart för att svara, skapa eller agera. Men innan du rullar ut Copilot i din organisation bör du se till att skydda er data så att den inte delas oavsiktligt.

Många Microsoft 365-användande organisationer är nyfikna på Microsoft Copilot och hur de kan nyttja den stora mängd data de samlat på sig genom åren.

Andra frågor vi får om Copilot kopplar till säkerhet och dataläckage, vilket är bra. Det är alltid viktigt att ta hänsyn till säkerhet och datasekretess när man börjar använda nya verktyg – och Microsoft Copilot är inget undantag.

Hur använder Microsoft Copilot din data?

Copilot använder ett flertal källor för att samla in data. Bland annat användarens interaktion med Microsoft 365-applikationer och tjänster, anonymiserad data från andra användare och data från tredjepartsintegrationer.

Det här behöver du veta:

  • Din data är inte tillgänglig för andra kunder
  • Microsoft delar inte dina data med tredje part om du inte ger din tillåtelse
  • Dina data används inte för att träna Copilot om inte organisationen gett sitt samtycke
  • Data stannar inom användarens geografiska region
  • Copilots svar baseras endast på data som du personligen har tillgång till

Skydda data från att delas oavsiktligt!

Eftersom Copilots svar baseras på data som användaren har tillgång till – så är det viktigt att säkerställa att användaren har tillgång till rätt data. Annars kan känsligt innehåll delas oavsiktligt.

Nyckeln till datasäkerhet är en korrekt uppsatt behörighetsstruktur. En sådan matchar vilken information som respektive användare ska ha tillgång till.

Vi har t.ex. koncernkunder som inte vill att data från de olika bolagen ska vara tillgänglig för alla. Där blir ett första viktigt arbete, innan de inför Copilot, att säkerställa att delade resurser är tillgängliggjorda som privata istället för publika samt att man har rätt behörigheter för de privata.

Copilot visar bara data som användaren har (som minst) visningsrättigheter för. Detta minskar risken för oavsiktligt dataläckage. Men återigen – det förutsätter att någon genomfört dessa inställningar!

Nyttja de säkerhetsfunktioner som finns!

Microsoft Copilot följer mängder med säkerhetsprinciper, bland annat Microsofts regelverk för hantering av behörigheter och datasäkerhet samt standards för ansvarsfull AI. Det finns omfattande efterlevnad- och integritetsskydd, innehållsfiltrering samt funktioner för övervakning och kontroll, för att nämna några. Läs mer här

Datasekretess är en kärnprioritet för Microsoft, vilket lägger grunden för att tryggt utforska nya verktyg som Microsoft Copilot. Men som sagt, varje organisation måste göra sin del och se till att nyttja de säkerhetsfunktioner som Microsoft erbjuder!

 

Osäker på om er befintliga behörighetsstruktur räcker för att rulla ut Microsoft Copilot? Hör av dig, eller ta upp på vårt nästa uppföljningsmöte om du är kund till oss. Vi kan hjälpa dig att identifiera, dokumentera, anpassa och åtgärda så att varje medarbetare har tillgång till det dom ska och inget annat.