Till startsidan
Virginia Dignum föreläser på Göteborgs Universitet om etisk och ansvarsfull anvädnings av AI

Virginia Dignum: How should AI be Regulated?

Här följer anteckningar från Virginia Dignums föreläsning om ansvarsfull artificiell intelligens hos Göteborgs Universitet i december 2019.

AI är många saker, bland annat:

  • En teknologi
  • Ett fält inom vetenskapen
  • Ett ting (entity)

Men det är inte heller bara en sak:

  • Inte bara en algoritm (precis som att vid bakandet av en äppelpaj följer du en algoritm)
  • Inte bara maskininlärning

(Adaptability / Interaction / Autonomy) som verkar inom socioteknologisk kontext.

AI is not intelligence

“AI of today is definitely not intelligent”
– Virginia Dignum

Tar upp exemplet med hudåkommor där AI:n tog beslut även baserat på om det fanns en linjal (scale) med på bilden.
Att en AI kommer fram till olika saker om bilden roteras lite granna, om man zoomar in lite, eller att det sitter ett klistermärke på en stoppskylt, exempelvis.

Riskerna är ofta relaterade till om AI används "på rätt sätt".

Tydliga nyttor:

  • Hälso- och sjukvård
  • Klimat
  • Utbildning
  • Arbete
  • Kommunikation

Frågor om ansvarsfull AI:

  • Hur tar vi hand om dilemman?
  • Prioritering av behov?
  • Vem bestämmer?
  • Med vems värderingar?

Etik inom AI är inte enbart “trolley problems”. Också om automatiserad tillverkning där vi borde vilja värna om jobben och ett hållbart arbetsliv. Chatbotar där man kan missta en bot för en individ eller att maskinen manipulerar känslolivet, nudging, eller påverkar någons beteende. Eller automatiserade beslut i olika sammanhang. Det är inte alltid fullt så bra precision eller humant som man kan önska.

Rapporter

Många aktörer som jobbar med rapporter, bland annat IEETF, OECD, EU:s HLEG (High-Level Experts Group), WEF (World Economic Forum) och Europarådet.

Att man skriver eller stöttar dessa arbeten betyder inte att man följer dem. Exempelvis EU både jobbar med sin HLEG men det är inte direkt lagstiftning i EU. OECD gör mer av observationer och IEEE EAD (Ethics in Action) är mer intresserade av att ta fram standarder för andra att följa. Alla varianter behövs, förstås.

“I've been working with this since 1986. For most of my life, no one cared”
– Virginia Dignum

Varför bryr sig folk nu? Löftet är att AI ska kunna ta bättre beslut. Vad menas med bättre? Bättre för vem?

Hur tar vi beslut?

Och hur tar vi beslut tillsammans? Genom att rösta, exempelvis. Det är också ett artificiellt system som designats av människor. Det påverkar vilka beslut vi kan ta.

Det kan formuleras på olika sätt. Bara det att vi har olika alternativ selekterar. Genom olika engagemang i frågorna. Legitimitet, med mera.

Vilka beslut ska en AI kunna göra?

Vi väntar oss inte att AI:n i en bil vägrar att ta oss till en snabbmatsrestaurang och istället tar oss till gymmet. Så vad väntar vi oss? Ska bilen ta beslut om “trolley problem”? Ska de följa lagen, etik, sociala preferenser? Dessa drar inte alltid jämnt. Särskilt inte mellan olika grupper av människor.

Balansera mellan frihet och säkerhet. Skydda bilisten eller de utanför bilen? Vem får lov att köra över hastighetsbegränsningen framöver?

Att ta ansvar

Kan vara i designen (som en process, att göra rätt saker och inte saker rätt), genom design eller för designers.

AI behöver vara ART (Accountability, Responsibility och Transparency):

  • A = ansvarsfull och möjlig att utkräva ansvar ifrån (hur nu det går till)
  • R = autonomi, chain of responsible actors, human-like AI
  • T = transparens när det gäller data, processer och algoritmer, men också genom vilka val som erbjuds och de beslut som tas

Explainable AI (XAI)

Maskininlärning är för närvarande kärntekniken bakom AI. Och man behöver också fråga sig vad “förklarbar” innebär. Det finns olika nivåer. Allt från en uppenbar varningsskylt, till avtalstexter på nätet som ingen förväntas läsa, till enorma datamängder ingen människa ens kan förstå.

AI som förklarar sig självt behöver vara:

  • Korrekt
  • Begriplig
  • Läglig, komma vid behov
  • Komplett
  • Avgränsad (parsimonious)

By design

Går det att lära en AI etik? Vilka värderingar och vems värderingar?

Vad är rättvist? Samma möjlighet att delta eller samma 'handikapp'?
Vad som är rättvist (fairness) kan tolkas väldigt olika. Som barnen som står på lådor för att se över ett staket. Det är skillnad på likvärdighet och att ha samma exakt stöd. Eller om du på engelska jämför "equal opportunity" eller "equal resources".

För design(ers)

Att ta ett etiskt perspektiv. Regleringar, certifieringar, standarder och codes of conduct (vilket är viktiga i många yrken, dock inte bland ingenjörer).

Hur vet du att det är ägg från ekologiska frigående höns du köper i butiken. Vi tvingas förlita oss på en utomstående parts märkning.

Behöver AI en fairtrade-märkning? Idag vet vi nästan inget om principerna bakom respektive AI-lösning.

Fråga: Borde vi ha en GDPR-liknande ansats för att reglera AI? GDPR har gjort folk väldigt mycket mer medvetna om sin integritet. Ja! Vi borde reglera AI. Tillämpningarna, inte forskningen. Så man vet vad man får/använder.

Eller som Angela Merkel uttryckte det:

"It will be the job of the next Commission to deliver something so that we have regulation similar to the General Data Protection Regulation that makes it clear that artificial intelligence serves humanity"
– Angela Merkel (juni, 2019)


Publicerad: 2019-12-22
Av Marcus Österberg
Kategori Övrigt
Tagg: Virginia Dignum Göteborgs Universitet Lagstiftning