Använd generativ AI på ett etiskt sätt
Generativ AI kan effektivisera den offentliga förvaltningen men användningen kräver etiska överväganden. Genom att tillämpa principer om ansvarsfullhet och dokumentation, samt använda olika verktyg kan du som offentlig aktör bygga förtroende och stärka sin förmåga att hantera AI på ett hållbart och inkluderande sätt.
Sammanfattning
Etisk AI är lika med ansvarsfull AI. Båda innebär att de som använder AI, och generativ AI, tar ansvar för både avsiktliga och oavsiktliga konsekvenser. För att åstakomma det gäller det att följa principer om rättvisa, tillförlitlighet, säkerhet, sekretess, transparens, inkluderande och ansvarstagande. Att följa principerna innebär att risken för diskriminering minskar, bygger förtroende och skapar förutsättningar för att beslut är förståeliga och rättssäkra.
Den organisatoriska förmågan och kapaciteten att arbeta med etiska överväganden inom teknikområden varierar stort inom den offentliga förvaltningen. Därför är denna riktlinje uppdelad i tre olika ambitionsnivåer där den första gäller alla offentliga aktörer och där de andra två nivåerna är att betrakta som önskvärda.
Vi rekommenderar att du läser igenom informationen om om vad etisk AI är. Gå därefter vidare och läs om organisatorisk förmåga, att använda AI på ett ansvarsfullt sätt samt de tre nivåerna som beskriver olika ambitionsnivåer för arbetet med etisk AI. Här är det upp till dig och din verksamhet att avgöra vilken nivå ni vill arbeta mot. Till varje del finns frågor som hjälper dig och din organisation att arbeta med AI på ett etiskt sätt.
Vad är etisk AI?
Det råder delade meningar om vad etisk AI är och det kan upplevas som ett område fyllt av etiska principer som är svåra att praktiskt implementera och följa upp. Ett sätt att arbeta runt detta är istället fokusera på om en AI-lösning följer de lagar, regelverk och förordningar som finns för verksamheten ifråga samt för utvecklingen och implementeringen av AI-lösningar. Det primära fokuset ligger då på vad som är tillåtet ur ett juridisk perspektiv och det underliggande antagandet är att viktiga etiska principer finns inbyggda i de lagar och regelverk som råder.
För att säkerställa att en AI-lösning bidrar till önskade målsättningar, som ökad effektivitet eller kvalitet i en tjänst eller ett arbetsmoment, kan en testverksamhet eller användandet av en regulatorisk sandlåda ge klarhet i AI-lösningens lämplighet utifrån ett juridiskt- och prestationsperspektiv.
Etisk AI tar hänsyn till AI-lösningens hela livscykelshantering och den kontext de används i och följande frågor är därför aktuella:
- Klimatpåverkan från stora AI-modeller.
- Krav på transparens i beslutssystem.
- Etiska riktlinjer i upphandling och tillämpning.
- Tilliten till AI-system generellt.
- Långsiktig påverkan på människors välbefinnande och integritet.
- Frågor om önskade och oönskade konsekvenser för samhällsutvecklingen.
Samtidigt måste etisk AI erkänna de strukturella och kulturella ramar som påverkar hur vi utvecklar och använder tekniken, vilket gör det till en fråga om både globala standarder och lokala tillämpningar. För de aktörer som kan ta ett större ansvar för sin AI-utveckling och användning, finns det med andra ord flera aspekter och områden att engagera sig i utöver det strikt juridiska.
Etisk AI har många synonymer, exempelvis tillförlitlig AI, transparent AI, rättvis AI och människocentrerad AI. Varje alternativt begrepp lägger lite olika tyngd på områdena som listades ovan.
Även om etisk AI är det begrepp som oftast används passar även begreppet ”ansvarsfull AI” eller uttrycket ”en ansvarsfull hantering av AI” bättre för att prata om arbetet med att utveckla, upphandla och implementera AI i den egna organisationen. Det är en term som företag som till exempel Microsoft använder och som betonar aspekter av AI-utveckling och användning på ett sätt som gör det möjligt att agera på de styrande etiska principerna.
Organisatorisk förmåga
Större organisationer har ofta jurister och utvecklare med kompetens inom AI-området och i vissa fall egna etikexperter och etikråd. Det är enklare för dessa organisationer att göra de bedömningar som krävs för etisk AI än mindre organisationer.
Mindre myndigheter, kommuner och regioner kan inte förväntas att ha tillgång till dessa resurser och förmågor inom sina organisationer eller budget för att kontraktera sådana färdigheter. Det gör det svårare för dem att ta ställning till de etiska frågorna som bör hanteras i inledningen av en AI-implementering och under AI-lösningens livscykel.
I takt med att AI blir mer tillgängligt och mindre kostsamt kommer sannolikt fler mindre organisationer att upphandla AI-system, utveckla egna lösningar eller konfigurera existerande lösningar. Det är därför lika relevant för mindre som för större organisationer att kunna hantera frågor som rör etisk AI.
Områden för säkerställa en etisk användning av AI
För att öka din verksamhets organisatoriska förmågan att börja använda AI på ett etiskt sätt kan nedan lista fungera som en vägledning. Den innehåller de områden du som offentlig aktör bör överväga och kunna hantera vid användningen av AI och generativ AI.
- Skadeförebyggande och robusthet: säkerställa att AI-systemet inte orsakar fysisk, social eller psykologisk skada.
- Rättvisa och jämlikhet: förhindra diskriminering och snedvridning i AI-systemet.
- Hållbarhet och klimatpåverkan: minimera AI-systemets energiförbrukning och ekologiska fotavtryck.
- Transparens och förklarbarhet: skapa förståelse för hur AI-systemet fungerar och fattar beslut.
- Ansvarsfullhet och styrning: definiera tydliga ansvarskedjor, processer och rutiner för prövning och korrigering.
- Integritet och dataskydd: skydda individers personuppgifter och säkerställ att data används ansvarsfullt.
- Tillit och acceptans: bygg förtroende hos användare och samhällen genom etiska riktlinjer och kommunikation.
- Socialt och ekonomiskt ansvar: säkerställ att AI-lösningen bidrar till samhällsnytta och inkluderar alla grupper.
- Mångfald och inkludering: involvera olika perspektiv och bakgrunder i utvecklingen och användningen av AI.
- Etisk styrning och råd: ha interna och externa mekanismer, exempelvis ett etiskt råd, för att granska och vägleda AI-utvecklingen.
Att använda AI ansvarsfullt
Ansvarsfrågan aktualiseras allt mer i takt med att fler AI-lösningar sätts i drift och granskas. Att flytta fokus från etik till ansvar handlar inte om att minimera andra etiska överväganden. Tvärtom handlar det om att tydliggöra att en organisation och dess ledning bör hantera etiska överväganden på ett ansvarsfullt sätt. Det innefattar rättsliga och organisatoriska frågor, om exempelvis roller, ansvar, dokumentation och arbetsmiljö. Det handlar också om ansvar att öppna för insyn och förklarbarhet om hur en AI-lösning fungerar och leder till beslut. Ansvaret handlar slutligen även om att avgöra hur öppen och transparent organisationen kan och bör vara gällande sina AI-lösningar.
Områden för att säkerställa ansvarsfull AI
För att arbeta med ansvarsfull generativ AI bör du och din verksamhet arbeta med följande områden. Områdena ger verksamheten möjlighet att noga överväga hur du och din verksamhet ska hantera dessa aspekter och hur ni ska dokumentera beslutprocesser och ansvarsfördelning.
- Förstå och överväg de önskade och potentiellt oönskade effekter som implementeringen och användningen av generativ AI kan ha.
- Ta beslut om att bara använda generativ AI när det är
- relevant
- lämpligt
- proportionellt
- det mest lämpliga och hållbara alternativet för din organisations behov.
- Tydliggör skillnaden i ansvaret för AI-användningen i förhållande till enskilda parter och medborgare.
- Tydliggör skillnaden i ansvaret för AI-användningen i förhållande till ansvarsfördelningen inom den egna organisationen mellan arbetsledning och medarbetare.
Question Zero
Begreppet ”Question Zero” kan bland annat associeras med Herman B. Leonard, professor vid Harvard Business School, där det syftar på den grundläggande fråga som måste ställas och besvaras innan man påbörjar problemlösning:
Vad är det vi egentligen försöker åstadkomma?
Genom att ställa denna fråga kan man identifiera problemets kärna och säkerställa att insatserna riktas mot rätt mål.
För AI och generativ AI kan frågeställningen hjälpa till att sätta ramarna för diskussioner om användningen av AI. Kärnfrågan kan summeras till:
Bör vi använda AI i en given situation? Och om ja, under vilka villkor?
Det är en grundläggande fråga som utforskar det etiska och strategiska syftet med AI innan en organisation överväger detaljer om hur de ska utforma eller implementera den i verksamheten.
Om du och din verksamhet vill börja använda generativ AI kan Question Zero bidra till att lyfta frågan om syfte och mål framför detaljdiskussioner om funktion och implementering.
Att besvara Question Zero bör ses som första steget i att anamma ansvarsfull AI. Att svara på frågan kan förebygga onödig användning av AI och skapa förutsättningar för att AI används för att tillgodose identifierade behov och för de uppgifter som verksamheten har. Frågan kan även främja ansvarstagandet för verksamhet med generativ AI genom att börja med "bör"-frågor snarare än "hur"-frågor.
Tre ambitionsnivåer för att arbeta med AI på ett etiskt sätt
Organisatorisk förmåga och kapacitet att arbeta med etiska överväganden inom teknikområden varierar stort inom offentlig förvaltning. Därför har vi satt upp tre olika ambitionsnivåer för att arbeta med AI på ett etiskt sätt. Den första nivån gäller för alla offentliga aktörer, de två andra nivåerna är att betrakta som önskvärda.
Nivå 1: Legalitet
Den första nivån är grundläggande och något som alla offentliga aktörer ska leva efter. Nivån handlar om att säkerställa att projekt med generativa AI-lösningar följer gällande lagar, regelverk och förordningar. Dessa har en inbyggd etik och att leva efter dem innebär en etisk grund.
Det är ledningen som är ansvariga för fördelningen av ansvaret för att följa gällande lagar, regelverk och förordningar och se till att rätt kompetens involveras och samverkar.
Följ principerna i den statliga värdegrunden
Utgångspunkten för Sveriges offentliga förvaltning är den statliga värdegrunden som består av sex principer. Principerna är inte särskilt anpassade för användandet av någon enskild teknik. Men trots det är det möjligt att illustrera på vilket sätt den statliga värdegrunden är relevant för att säkerställa en etisk användning av AI och generativ AI inom offentlig förvaltning.
1. Demokrati
Generativ AI måste stödja demokratiska värden genom att vara transparent och inkluderande i hur det används för att skapa och distribuera information. AI-genererad desinformation kan underminera demokratiska processer, och en brist på insyn i hur AI-modeller fattar beslut kan skapa misstro bland medborgarna. För att motverka några av dessa risker är det därmed viktigt att generativ AI används på ett sätt som stärker medborgares delaktighet genom att till exempel skapa lättförståelig och korrekt information. Offentliga aktörer bör även utforma AI-användningen utifrån en bred och kontinuerligt pågående demokratisk dialog och medborgarengagemang.
2. Legalitet
Generativ AI måste följa alla relevanta lagar, som GDPR och AI-förordningen, och offentliga aktörer behöver säkerställa att användningen sker inom ramen för offentlig rätt. En otillräcklig reglering kan leda till oavsiktlig skada på individers rättigheter och integritet. Det kan också leda till dataskyddsbrott vid användning av känsliga data för träning eller användning av AI-modeller. Genom att utveckla och implementera AI-modeller i enlighet med svensk lagstiftning och EU-lagstiftning, och genom regelbundna juridiska granskningar av AI-system, stärks legaliteten och även tilltron till användningen av tekniken.
3. Objektivitet
Generativ AI måste i möjligaste mån vara fri från partiskhet (bias) och en rättvis behandling av alla individer och grupper måste säkerställas. Omedvetenhet om hur bias kan finnas representerat i datamängder och i utformningen av algoritmer kan leda till att existerande bias i modeller och data förstärks. Detta leder i sin tur till att risken för att partiska beslut fattas ökar. Offentliga aktörer har därmed ett ansvar att implementera metoder för att identifiera och minimera bias i datamängder och modeller. Det bör också införas metoder och rutiner för granskning av det som genereras för att säkerställa att AI-genererade resultat är rättvisa och neutrala.
4. Fri åsiktsbildning
Generativ AI ska stödja medborgarnas möjligheter att bilda och uttrycka åsikter genom tillgång till korrekt och balanserad information. Generativ AI kan relativt enkelt missbrukas för att påverka den fria åsiktsbildningen. Algoritmisk censur eller algoritmisk prioritering av vissa åsikter kan motverka desinformation men riskerar även att begränsa yttrandefriheten. När offentliga aktörer använder generativ AI för att göra komplexa frågor mer begripliga bör detta således göras utan att fakta förvrängs eller att saker tas ut ur en större kontext som kan förvränga innebörden.
5. Respekt för alla människors lika värde
Generativ AI ska behandla alla människor lika och respektera deras rättigheter och värdighet. Diskriminering eller marginalisering av vissa grupper i AI-genererade resultat måste motarbetas och kontrolleras av offentliga aktörer. Brister i tillgänglighet för AI-tjänster för personer med funktionsnedsättningar bör uppmärksammas och inkluderande designprinciper behöver användas.
6. Effektivitet och service
Generativ AI ska bidra till effektivitet och tillgänglighet i offentliga tjänster samtidigt som användningen ska balansera med etiska krav. En överfokusering på effektivitet kan leda till en bristande hänsyn för etiska frågor och långsiktiga negativa konsekvenser. Felaktiga eller undermåliga AI-genererade beslut kan undergräva allmännhetens förtroendet för offentliga tjänster om effektivitet och service kompromissar kvalitet eller rättssäkerhet. Därmed behöver AI-system regelbundet granskas och utvärderas utifrån fler parametrar än just effektivitet och service.
Nivå 2: Ansvarsfullhet, dokumentation och etikråd
Tillgången till generativ AI (och AI generellt) gäller ofta brett i en organisation och det finns ofta en given ansvarsfördelning och rollbeskrivningar där löpande dokumentation av verksamheten sker. Detta gäller för såväl egen utveckling som för anskaffning, konfigurering och förvaltning av existerande lösningar. Som ett stöd i dokumentationen rekommenderar vi att du och din verksamhet använder befintliga verktyg för ändamålet såsom till exempel Förtroendemodellen eller UNESCO:s verktyg Ethical Impact Assessment.
Etikråd för etiska överväganden
Att skapa ett etikråd för AI är ett sett att samla olika kompetenser för hanteringen av etiska överväganden. Användningen av olika verktyg för dokumentation av AI och processledning som nämns ovan, kräver ofta att olika delar av verksamheten är med och besvarar frågor om hur olika områden hanterats. Ett etikråd kan vara ett sätt att säkerställa att bedömningar av påverkan och konsekvenser vid användningen av en AI-lösning, och andra etiska aspekter, görs av ett tvärsektoriellt och multikompetent team. Om ett forum för dialog om etiska och rättsliga aspekter redan existerar men inte används för att överlägga AI-relaterade frågor, rekommenderar vi att detta forum används även för AI-frågor som berör verksamheten. Om inget sådant forum finns, eller om man avgör att det inte är lämpligt för AI-relaterade frågor, rekommenderar vi att ett etikråd för AI etableras.
Använd Förtroendemodellen som stöd i etikfrågor
Förtroendemodellen är ett koncept som har utvecklats för att skapa förtroende för automatiserade beslut med bland annat AI och som under tid utvecklats av flera myndigheter tillsammans. Modellen ger stöd för många av de frågor som tagits upp i detta etikavsnitt och för att gynna transparens till design, utveckling, träning och användning av AI i offentlig förvaltning.
Ambitionen var att utveckla en svensk modell som tar hänsyn till svenska förhållanden och regler. Detta för att modellen ska vara mer användbar samtidigt som den inkorporerar redan framtagna etiska riktlinjer och principer. Konceptet för denna modell skiljer sig också från tidigare liknande verktyg för etisk AI eftersom frågan om transparens och tillgänglighet fick större utrymme i utfomningen.
Modellen utvecklades innan generativ AI:s stora genombrott, vilket innebär att den inte adresserar generativ AI specifikt. Med det sagt är modellen ändå användbar eftersom den lägger mycket fokus på organisatoriska sakområden som berör ansvarsfullhet såsom ledningsansvar, yrkesroller och kompetenser samt datahantering.
Förtroendemodellen innehåller även rekommendation om att göra innehållet i självskattningsformuläret tillgängligt externt. För det syftet designades ett märke som kan bäddas in i den digitala miljö där den AI-baserade tjänsten som erbjuds finns. På så vis visas att det handlar om en AI-tjänst som har genomgått en etisk bedömning. Via märket kan den intresserade läsa självskattningen för AI-tjänsten.
Att använda Förtroendemodellen garanterar inte att all bias har tagits om hand, att alla regelverk följts eller att AI-tjänsten inte kan ha oönskade konsekvenser i sin tillämpning. Men den garanterar i alla fall att etableringen av en AI-tjänst har gjorts med beaktande av ansvar och etiska överväganden. Användning av Förtroendemodellen skapar transparens och tillit, begrepp som även de har en etisk dimension.
Förtroendemodellen (dataportal.se) Länk till annan webbplats.
Följ UNESCO:s rekommendation om etik och AI
FN-organet UNESCO har FN:s mandat att leda arbetet inom AI-området. År 2021 antogs UNESCO:s rekommendation om etik och AI. Syftet är att främja och säkerställa att alla länder, organisationer, företag och enskilda personer utvecklar och implementerar AI på ett etiskt sätt och i linje med mänskliga rättigheter. Samtliga medlemsstater har ställt sig bakom rekommendationen.
Syftet med UNESCO:s rekommendation är att belysa de fördelar som AI kan medföra samhället och i arbetet med att nå de globala målen (Agenda 2030). Samtidigt uppmärksammar de risker som finns med tekniken.
Verktyget Ethical Impact Assessment (EIA)
UNESCO har omvandlat rekommendationerna till ett verktyg som underlättar för organisationer att implementera etiska principer i upphandling eller utveckling av AI-system, det kallas Ethical Impact Assessment (EIA). Verktyget är ett frågeformulär där du som användare kan dokumentera hur en rad olika etiska aspekter och överväganden har tagits om hand.
Vi rekommenderar att du använder EIA-verktyget
Vi hänvisar till EIA-verktyget och rekommenderar att du som offentlig aktör använder det för insatser där du utvecklar, upphandlar och implementerar AI-system. Verktyget ska ses som ett metodstöd för att säkerställa att de AI-lösningar som används i din verksamhet är i linje med de etiska principer som UNESCO tagit fram.
Verktyget togs fram för att primärt ge stöd till statligt anställda som arbetar med kravställning och upphandling av AI-system. Men det kan också ses som ett generellt stöd där samma krav som ska ställas på leverantörer även kan ställas på den egna organisationens utvecklare av AI-system.
Ethical Impact Assessment - EIA (unesco.org) Länk till annan webbplats.
Etablera ett etikskt AI-råd
Etiska överväganden kan ske genom att samla relevanta yrkeskompetenser inom verksamheten för att gemensamt bedöma påverkan och konsekvenser vid användningen av en AI-lösning. Inom offentlig sektor finns ofta yrkeskompetens som bevakar och säkerställer att verksamheten upprätthåller etiska och rättsliga aspekter. Det kan till exempel vara inom vårdyrken eller social omsorg, eller i rollen som jurist.
Uppdrag till ett etiskt råd
Ett etiskt AI-råd, eller annat forum där AI-frågor behandlas, kan ha olika syften beroende på organisationens förmågor, resurser och verksamhetsområde. Några generella uppdrag ett etiskt råd kan ha inkluderar:
- Granska och ge råd om AI-strategier, beslut och tillämpningar för att säkerställa att de överensstämmer med etiska principer och samhällsvärden.
- Utveckla eller anamma etiska riktlinjer för användning av AI inom organisationen, samt bidra till att anpassa internationella standarder till den lokala kontexten.
- Stötta beslutsfattare med rekommendationer och riskbedömningar i specifika AI-relaterade projekt.
- Övervaka efterlevnad av etiska riktlinjer och utvärdera befintliga AI-system ur ett etiskt perspektiv.
• Främja medvetenhet och utbildning om etisk AI inom organisationen och gentemot allmänheten. - Fungera som en kanal för återkoppling från berörda parter, inklusive medborgare och externa experter.
Kompetenser i ett etiskt AI-råd
Ett etiskt AI-råd bör vara tvärvetenskapligt och inkluderande, med representation från följande kompetensområden:
- Etik och filosofi: för att säkerställa en normativ och kritisk förståelse av etiska principer och värden.
- Teknologi och AI-expertis: för att förstå de tekniska aspekterna av AI och relaterade risker.
- Juridik: För att säkerställa att tillämpningar av AI följer lagar och regler, inklusive dataskydds- och diskrimineringslagstiftning.
- Samhällsvetenskap och sociologi: för att bedöma AI:s påverkan på samhälle och sociala grupper.
- Hållbarhets- och miljöexpertis: för att ta hänsyn till AI-systemens klimatpåverkan och långsiktiga hållbarhet.
- Representanter för användare och medborgare: för att inkludera perspektiv från de personer som påverkas av AI, såsom medborgare, konsumenter och anställda.
- Interna beslutsfattare och ledare: för att säkerställa att rådet är relevant och väl integrerat i organisationens beslutsprocesser.
I tillägg till ovan kompetensområden och grupper bör rådet även ha en bred representation av olika kön, etniciteter, åldrar och socioekonomiska bakgrunder. Detta för att spegla samhället och undvika partiskhet.
Det etiska AI-rådet bör vara oberoende
Det etiska AI-rådet bör också vara relativt oberoende för att kunna granska och kritisera organisationens AI-användning utan intressekonflikter. Däremot bör det finnas en direkt koppling till högsta ledningen så att rådet kan rapportera direkt till högsta beslutsfattande nivå, såsom myndighetsledningen eller kommunstyrelsen. Detta för att säkerställa att rådets rekommendationer tas på allvar.
Om organisationen använder AI brett inom verksamheten, bör rådet kunna samordna med olika avdelningar och fungera som ett centralt organ för etiska frågor. Rådet bör ha regelbundna möten för att diskutera och följa upp etiska frågor, med flexibilitet för att hantera brådskande frågor. Rådet behöver också tydliga processer för att bedöma etiska aspekter av nya och befintliga AI-system. För att hålla sig uppdaterade om bästa praxis bör rådet även samarbeta med andra etiska råd, forskningsinstitutioner och intresseorganisationer.
Nivå 3: Transparens och tillgänglighet
Genom att uppfylla delarna inom nivå ett och två ovan stärker du och din verksamhet organisationens förmågor och ansfarsfullhet. Nivå 3 handlar om att även göra överväganden, resonemang och dokumentation från möten med det etiska AI-rådet samt självskattnings- och bedömningsstödsverktyg publika. Genom att göra dessa tillgängliga för allmänheten ökar tilliten till offentliga aktörers förmåga att på ett ansvarsfullt sätt utveckla, använda och hantera generativa AI-lösningar.
Publicera dokumentation öppet
Vertyg som exempelvis Förtroendemodellen syftar främst till att uppmärksamma aktörer på sådant de behöver ta ställning till, till exempel att säkerställa rättslig grund för användningen av personuppgifter. En annan viktig etisk aspekt är transparens. Förtroendemodellens lösning på detta är att tillgängliggöra innehållet för externa parter för att främja transparensen.
Som offentlig aktör kan du möta de etiska kraven på transparens genom att tillgängliggöra beskrivningar av AI-lösningar som används och etiska ställningstaganden kring användningen. Samtidigt underbygger det tilliten till organisationens förmåga att hantera svåra överväganden. Detta gäller oavsett om det är Förtroendemodellen eller ett annat ramverk som har använts. För att uppfylla nivå tre rekommenderar vi att du publicera din verksamhets dokumentation publikt.
I dagsläget finns inga krav på att tillgängliggöra denna typ av dokumentation och det finns inte heller en dedikerad plats att publicera dokumentationen på.
Det finns goda exempel på delningar av till exempel interna policydokument, riktlinjer och strategier för AI-utveckling och användning. Dessa kan återfinnas exempelvis på organisationers webbplatser, på deladigitalt.se och i AI Swedens portal MyAI.
Dokument och länkar
- Den statliga värdegrunden (statskontoret.se) Länk till annan webbplats.
- Förtroendemodellen (dataportal.se) Länk till annan webbplats.
- Ethical Impact Assessment - EIA (unesco.org) Länk till annan webbplats.
- Deladigitalt (deladigitalt.se) Länk till annan webbplats.
- MyAI (my.ai.se) Länk till annan webbplats.
Ditt svar hjälper oss att förbättra sidan
Senast uppdaterad: