En af de ting, der bliver ved med at undre mig er, hvordan man tror, man kan lave noget bedre for mennesker – hvis man aldrig nogensinde møder de mennesker, man gerne skulle gøre noget bedre for?

Logisk set giver det ikke meget mening for mig. Ikke desto mindre er det stadig sådan, vi mange gange tilgår udviklingen af nye digitale produkter og services; vi – eller nogen omkring os – får en eller anden idé. Vi opstiller til nød nogle meget KPI-lignende mål, der ofte er baseret på noget så menneskefjernt som en business case. Og så går vi ellers i gang med at udvikle.

Men det er en farlig vej at vælge.

Misser behovet

Det er det af flere grunde.

I første omgang naturligvis fordi det at udvikle uden at have taget vores slutbrugere i ed fra starten af, er det samme som at gå på casino og satse hele formuen på ét tal på rouletten:

Ja, det giver en vis (lille) sandsynlighed for, vi får enorm succes og virkelig rammer den rent. Men den overvældende matematiske sandsynlighed er, at vi taber det hele på gulvet. Og denne risiko bliver ikke mindre, jo mere vi tror, vi på forhånd kan regne ud præcis, hvor kuglen vil lande, når rouletten stopper.

Kan ende virkelig galt

En anden – og faktisk mere skræmmende – grund til, at det er farligt ikke at tage den menneskelige dimension med er, at det faktisk kan ende decideret galt. Om ikke andet så for de slutbrugere, vores løsning går ud over.

Dette er f.eks. risikoen, når vi taler om at bringe AI (kunstig intelligens, red.) ind i vores løsninger som hjælp til at understøtte eksempelvis sagsbehandlingen i det offentlige. Her er de, der rammes af systemets beslutninger, helt afhængige af, at systemet er fair opbygget, og at de algoritmer, der er defineret, er kalibreret rigtigt.

Bias bliver et problem

Og hvordan skulle udviklere og opdragsgivere i skøn forening kunne gøre det, hvis de ikke har været ude og rent faktisk møde nogle af de mennesker, deres system kommer til at have en betydning for?

Der er en markant risiko for, at algoritmer, der skabes af mennesker, der sidder på for lang afstand af dem, algoritmerne rammer, ender med at skabe nogle, der er biased og ikke kommer dem, der har brug for dem, til gavn.

Synes man det er helt fint, kan man selvfølgelig mene, at det er en kærkommen mulighed for at få skabt nogle systemer, hvor man overlader den menneskelige dårlige samvittighed til en kold computer. Det mener jeg dog er et skråplan.

Få empatien med

I stedet opfordrer jeg altid til at komme ud, møde og indgå i dialog med de mennesker, systemerne designes til at skulle løse et behov eller en udfordring for. Både fordi det i sig selv er spændende og givende, men især fordi det bevisligt ender med at skabe mulighed for at udvikle nogle langt bedre og mere effektive systemer, der kommer alle parter til gavn.

For der sker noget, når man sidder overfor et andet menneske og har noget personligt på spil. Medmindre man fra naturens side er enormt afstumpet opstår der en form for sympati, som man tager sig med hjem og hele tiden har i baghovedet, når man udvikler sine systemer.

Det er nemlig sværere at træde ved siden af og suboptimere, når man har sat et ansigt på. De største ulykker i historien er sket der, hvor den fysiske afstand mellem gerningsmænd og ofre har været størst, og dem, det er gået ud over fra de ansvarliges side har kunnet fremstå mest muligt anonyme.

Uden sammenligning med de største katastrofer gennem historien er der ingen god grund til, vi bliver ved med at tage denne praksis med os i udviklingen af digitale produkter og services.

(Foto: Pixabay.com)