Klar til AI? Start med AI-etik

Klar til AI?  Start med AI-etik

I de sidste 12 måneder er kunstig intelligens blevet overskriftsnyhed og ikke altid af de rigtige grunde. Vi har hørt historier om sexistiske AI-ansættelsesalgoritmer, racistiske algoritmer til ansigtsgenkendelseog AI'er, der bruger dine private sociale mediedata til at påvirke valg. Pinlige AI-fiaskoer som disse kan skade dit omdømme, pådrage lovmæssige sanktioner og endda negativt påvirke en virksomheds aktiekurser.

Disse AI-fiaskoer har fået meget opmærksomhed og kontrol fra medierne, men mange af disse nyhedsartikler fokuserer på frygtfaktoren og afsætter deres fortælling til undergangs- og dysterprognoser og ubeskrivelighed af komplekse algoritmer. For få nyhedshistorier udforsker de sande grundårsager til problemerne. Det er ikke underligt, at nogle virksomheder vakler i deres beslutning om at komme videre. På den ene side ved de, at de har brug for at omfavne AI-innovation for at forblive konkurrencedygtige. På den anden side ved de, at AI kan være udfordrende. Hvordan administrerer du AI for at sikre, at den følger dine forretningsregler og kerneværdier? For at AI skal få succes, skal det være pålideligt.

For at AI kan stole på, skal den tilpasses dine interesser. Pålidelig AI er AI det deler dine værdier, som du kan forstå, og det fungerer som planlagt.

Etisk adfærd er godt for erhvervslivet. For eksempel i undersøgelsen “Gør det godt ved at gøre godt: Den velvillige glorie af virksomheders sociale ansvar”Marketingprofessor Alexander Chernev konkluderede, at handlinger af virksomheders sociale ansvar, selv når de ikke er relateret til virksomhedens kerneforretning, påvirker forbrugernes opfattelse af den funktionelle ydeevne for virksomhedens produkter. Produkter fra virksomheder, der beskæftiger sig med socialt ansvarlige aktiviteter, vil sandsynligvis blive opfattet som af højere kvalitet. Og fordelene ved etisk adfærd går ud over kundernes opfattelse. Forskningsopgaven “Etik som en risikostyringsstrategi”Konkluderede, at” der er tvingende grunde til at betragte god etisk praksis som en væsentlig del af… risikostyring ”, og at fordelene ved etisk adfærd inkluderer identifikation af potentielle risici, forebyggelse af svig og nedsatte domstolsstraffe.

Regeringer over hele verden har reageret og offentliggjort retningslinjer for AI-etiske principper som f.eks OECD-principper for kunstig intelligens. Også her på Brutalk har vi været en del af denne tendens og udgivet en hvidt papir om principperne for AI-etik. Den gode nyhed er, at ideerne, der udtrykkes i disse dokumenter, er sammenfaldende, at der er en voksende konsensus rundt om i verden om principperne for etisk AI. Men dette er bare principper, ikke detaljeret vejledning. Generelt har regeringer ikke været ordinerende med de sjældne undtagelser fra GDPR og branchespecifikke regler såsom Loven om lige kreditmuligheder. Så folk forbliver usikre på de praktiske skridt, de kan tage for at anvende AI-etik. Desuden er enhver organisation forskellig, har sine egne unikke værdier, og der er mere ved etik og risikostyring end blot at adlyde loven.

Mens mange af begivenhederne delte fælles temaer, har vi opdaget den fælles faktor i disse højt profilerede AI-fiaskoer - disse organisationer havde ikke tydeligt formulerede politikker, der definerer deres værdier, og de definerede heller ikke de risikostyringsprocedurer, der altid skal være anvendes for at sikre, at disse værdier opretholdes. Uden offentliggjorte politikker har dataforskere, de mennesker, der bygger AI-systemer, ingen vejledning om de etiske værdier, der skal anvendes på de systemer, de bygger, så de bygger AI'er, der ikke har værdier. Manglende veldefinerede risikostyringsprotokoller og klart kommunikerede standarder og under pres for at opnå leveringstidslinjer anvender AI-projekter ufuldstændige og inkonsekvente kontroller og benchmarks. På grund af mangel på interne ressourcer outsourcer mange organisationer deres AI-kapaciteter og køber AI-systemer i sort boks bygget af tredjepartsleverandører, og disse AI-systemer træffer beslutninger, der er forkert justeret med organisationens strategi og værdier.

Her er de tre trin til at styre dine AI'er, så de deler dine værdier, ikke forårsager dig forlegenhed eller beskadiger din brandværdi:

  1. Definer dine værdier, og offentliggør dem i din organisation.
    Uden dette trin kan du ikke have tillid til AI. Ved tydeligt at definere og kommunikere din organisations værdier, vil både din forretning og det tekniske personale kende kravene, der skal indbygges i nye AI-systemer. Da AI-etik er en relativt ny disciplin, har Brutalk skabt en gratis, uforpligtende onlineværktøj der dækker alle nøgleprincipperne for AI-etik og stiller dig vejledte spørgsmål, der hjælper dig med at definere dine individuelle værdier.

  2. Definer en grundig AI-styringsproces, der gælder for hvert AI-projekt.
    Ligesom ethvert andet projekt har AI-projekter risici, der kan afhjælpes via passende AI-styringsprocesser. Ud over de standardiserede styringsprocesser for risikostyring skal du sørge for at inkludere processer til kontrol af tilpasning af værdier, tilpasning til forretningsstrategi, interessentanalyse, identifikation af vigtige AI-risici, revision og test og afmelding af forretningseksperter.

  3. Brug ikke tredjeparts black-box AI-systemer - ejer dine AI'er.
    Tredjepartssystemer blev ikke bygget til at matche din organisations unikke værdier. Black box-systemer forstærker problemet, da du ikke har nogen midler til at forstå AI's adfærd for at kontrollere, om der er overensstemmelse med dine værdier. Med demokratisering af datavidenskab via den nyeste generation af automatiseret maskinindlæring værktøjer plus rådgivning fra pålidelige partnere som Brutalk, kan du opbygge dine egne AI'er med menneskelige venlige forklaringer.

For at styre risikoen skal du tage ejerskab af din AI-skæbne. Ej dine værdier. Ej din intellektuelle ejendom. Ej processen og AI-styring. Ej din AI-forretningsstrategi.


Ny opfordring til handling

Om forfatteren

Colin Priest er VP AI-strategi for Brutalk, hvor han rådgiver virksomheder om, hvordan man bygger forretningssager og styrer datavidenskabelige projekter med succes. Colin har haft adskillige administrerende roller og administrerende roller, hvor han har været forkæmper for datalogi inden for finansielle tjenester, sundhedspleje, sikkerhed, olie og gas, regering og marketing. Colin er en fast tro på databaseret beslutningstagning og anvendelse af automatisering for at forbedre kundeoplevelsen. Han brænder for videnskaben om sundhedspleje og arbejder pro-bono for at støtte kræftforskning.

Du kan også være interesseret i