Benchmarki Copilot w Viva Insights budzą pytania o sens pomiaru „zaangażowania w AI”
Microsoft wprowadza nową funkcję w platformie Viva Insights, która pozwala menedżerom obserwować, w jakim stopniu ich zespoły korzystają z narzędzia AI – Microsoft Copilot. Benchmarki pozwalają na porównywanie adopcji Copilota wewnątrz organizacji (między działami, regionami) oraz zewnętrznie — z innymi firmami z branży. Nowe wskaźniki obejmują m.in.: procent aktywnych użytkowników Copilota, adopcję w konkretnych aplikacjach (Word, Excel, Teams, Outlook), wskaźnik powracających użytkowników oraz porównania według roli, regionu czy managera.
Microsoft zapewnia, że dane z benchmarków zewnętrznych są zagregowane z co najmniej 20 firm, co pozwala na ochronę prywatności — żadna organizacja nie jest identyfikowalna w wynikach. Jednocześnie jednak firma zdaje się sugerować, że wykorzystanie Copilota ma stać się nowym wskaźnikiem efektywności (KPI) w organizacjach.
Jak działają Benchmarki Copilot w Viva Insights?
Funkcja trafia do panelu Copilot (Copilot Dashboard) w ramach Viva Insights. Dzięki niej organizacje mogą analizować takie metryki jak:
- odsetek aktywnych użytkowników Copilota
- adoptowanie narzędzia w różnych aplikacjach (Word, Outlook, Teams itp.)
- wskaźniki powrotu użytkownika (czy używa AI regularnie)
- porównania według roli, regionu, typu menedżera
Benchmarki zewnętrzne opierają się na uogólnionych, zagregowanych danych z co najmniej 20 firm, by chronić prywatność – żadna organizacja nie jest identyfikowalna w wynikach.
Microsoft w tym samym czasie rozwija Copilot Analytics, narzędzie do pomiaru adopcji i wpływu Copilota, które będzie oferowało raporty KPI powiązane z efektem biznesowym (np. sprzedaż, marketing, finanse).
Cele i wyzwania – celowe KPI czy presja na pracowników?
Intencją Microsoftu wydaje się być uczynienie korzystania z Copilota jednym ze wskaźników efektywności.
Jednak krytycy ostrzegają, że taki model może prowadzić do nadużyć, presji i nadinterpretacji danych.
Śledzenie „kto używa AI, a kto nie” może stać się pułapką, jeśli nie zostanie połączone z jakością, kontekstem i rzeczywistym wpływem na wyniki.
Dodatkowo pojawiają się badania, które stawiają pod znakiem zapytania realny wpływ AI na produktywność.
W jednym z eksperymentów organizacji METR (Model Evaluation & Threat Research) przeprowadzono randomizowane badanie kontrolne, w którym 16 doświadczonych programistów open source wykonywało 246 rzeczywistych zadań – z użyciem AI i bez niego.
Okazało się, że choć uczestnicy subiektywnie oceniali, iż dzięki AI pracują szybciej, w rzeczywistości czas realizacji zadań wzrósł średnio o 19%.
Badanie, zatytułowane “Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity”, wskazuje, że AI może wprowadzać złudne poczucie wydajności, gdy część czasu pochłania ocena, poprawa lub weryfikacja wyników generowanych przez model.
Inne badania wskazują, że generowane przez AI treści bardzo często przypominają „workslop” – czyli materiały dobrze sformatowane, lecz pozbawione głębi i kontekstu.
Nie tylko wolniej, ale i mniej twórczo
Zastrzeżenia wobec wpływu AI na jakość pracy nie ograniczają się do branży IT. Badanie zespołów Stanford University i BetterUp Labs z 2025 roku pokazało, że aż 40% pracowników w USA zetknęło się z tzw. workslopem – czyli nadmiarem niskiej jakości treści generowanych przez AI. Takie materiały, choć szybkie w produkcji, wymagają późniejszej korekty, a ich filtrowanie kosztuje organizacje średnio 186 dolarów miesięcznie na pracownika.
W praktyce może to oznaczać, że organizacje płacą za „widoczność korzystania z AI”, a nie za rzeczywiste korzyści biznesowe.
Co organizacje mogą zrobić, by uniknąć pułapek?
Uzupełnić metryki o jakość i kontekst
- Obok danych ilościowych (użycie, częstotliwość) zbierać także feedback od pracowników.
- Łączyć metryki AI z KPI biznesowymi, by sprawdzić korelację.
Stosować benchmarki z rozwagą
- Porównania z innymi firmami mogą motywować, ale nie można ich traktować jak absolutny standard.
- Prywatność i anonimowość muszą być priorytetem w prezentowaniu danych.
Budować kulturę świadomego użycia AI
- Uczyć zespoły, kiedy AI pomaga, a kiedy wymaga nadzoru.
- Wskazywać ryzyka generowania „workslopów” i promować dokumentację użycia AI.
Testować i iterować wdrożenie
- Rozpoczynać adopcję od mniejszych zespołów i porównywać efekty.
- Monitorować koszty operacyjne związane z korektami i weryfikacją wyników AI.
Podsumowanie
Nowa funkcja Benchmarki Copilot w Viva Insights to kolejny krok Microsoftu w kierunku upowszechnienia AI w korporacyjnej kulturze.
Narzędzie umożliwia menedżerom monitorowanie adopcji narzędzi AI wewnątrz organizacji i w porównaniu z zewnętrznymi firmami.
Jednak bez pogłębionej analizy jakości i kontekstu, same liczby mogą mylić.
Badania dowodzą, że AI nie zawsze przyspiesza pracę – a nawet może ją spowalniać w rękach doświadczonych specjalistów.
Zjawisko „workslopu” przypomina, że ważne jest, by jakość generowanych treści miała znaczenie, a nie jedynie ich obecność.
Wdrażając narzędzia takie jak Copilot, firmy muszą wykroczyć poza wskaźniki użytkowania i skupić się na rzeczywistych korzyściach. W przeciwnym razie mogą zamienić sztuczną inteligencję w kolejne KPI do wypełnienia, bez realnej wartości dodanej.
