Publicerad av
Skolbiblioteksresursen - Monica Nilsson-Ehrenstråle
Bildverktyg
Marknadsföring
MIK
Presentation
- Hämta länk
- X
- E-post
- Andra appar
I dagens snabbt föränderliga teknologiska landskap har - och kommer - AI-assistenter blivit en allt mer integrerad del av våra liv. AI-assistenter är av stor praktisk nytta genom deras möjlighet att inspirera, ge kreativ stimulans och även vägledning. De kan fungera som personliga planerare, brainstorma med oss och ge råd i vårt lärande.
Men med dessa möjligheter följer också många djupgående etiska och samhälleliga frågeställningar för utvecklare, användare och de samhällen som anammar denna teknik. Frågor uppstår kring värderingar, missbruk, säkerhet, interaktionen mellan människor och AI-assistenter, samt samhällskonsekvenser som rör rättvisa, tillgänglighet, ekonomi och miljö.
Uppsatsen The Ethics of Advanced AI Assistants väcker många tankar. Den tar upp de möjligheter och etiska och samhälleliga risker som avancerade AI-assistenter innebär.
Några av frågeställningarna som tas upp i artikeln är:
Dessa vältränade AI-assistenter kommer att radikalt förändra hur människor får tillgång till information från internet. Framtidsutsikten av dessa avancerade AI-assistenter som form- och enhetsformskiftare beroende på användarens behov ställer den gamla världen på ända med att ha tillgång till internet.
Det gamla sättet som vi använder oss av när vi vill lära oss något nytt dvs söker informationen från olika leverantörers webbsidor, där vi aktivt söker efter relevant onlinematerial, kommer att bli passé. Istället kommer användaren få hjälp av AI-assistenter som skräddarsyr informationen efter användarens kunskapsnivå, behov och mål.
Tänk dig att ha en enda AI-assistent som kan interagera med andra appar, har full tillgång till dina privata data och din livssfär, och som är projicerad i en mänsklig avatar i rummet där du befinner dig, och kommunicerar med dig genom en röst som du har valt för din avatar.
Vad händer om användaren vill använda sin assistent för att skada andra, eller för att förstärka sina egna skeva perspektiv och åsikter. Hur lojal blir den där AI-assistenten? Och hur är utvecklare, företag och stater involverade i AI:n värdeanpassningssystem?
I sin bok, Superintelligence, jämför Nick Bostrom oss med små barn som leker med en bomb. Han menar att vi är naivt omedvetna om att smällen kommer. Men vi hör tickandet om vi tar bomben nära våra öron och lyssnar.
Nick Bostrom fortsätter: Om det hade varit e t t barn med en odetonerad bomb vore det klokaste att bara lägga ifrån sig bomben och gå därifrån. Men i det här fallet handlar det inte om e t t barn, utan om många, var och ett med olika agendor och viljor.
Diskussionen kring AI:s intelligens, värdegrund, säkerhet, öppenhet, mål och syfte m m är viktig att föra - i samtalen med varandra, i offentlig debatt, men också - väl så viktigt - i våra samtal med eleverna när vi talar om källgranskning och MIK.
LÄS MER
Tidigare inlägg
Är du kär i din AI-bot?
Reflektioner kring svart-och-vitt tänkande om AI
Förlängningen av dig själv - AI skapar en avatar av dig
Om forskningsartikeln
Denna uppsats är en av de första systematiska behandlingen av de etiska och samhälleliga frågor som väcks av avancerade AI-assistenter. Artikeln är författad av ett team på 57 forskare från olika institutioner, inklusive Google DeepMind, akademiska institutioner som Oxford och University College London och tankesmedjor som Center for Security and Emerging Technology vid Georgetown.
Gabriel, I., Manzini, A., Keeling, G., Hendricks, L. A., Rieser, V., Iqbal, H., Tomašev, N., Ktena, I., Kenton, Z., Rodriguez, M., El-Sayed, S., Brown, S., Akbulut, C., Trask, A., Hughes, E., Bergman, A. S., Shelby, R., Marchal, N., Griffin, C., . . . Manyika, J. (2024, April 24). The ethics of advanced AI assistants. arXiv.org. https://arxiv.org/abs/2404.16244Läs även:
Bostrom, N. (2017). Superintelligence : paths, dangers, strategies. Oxford: Oxford University Press.
Kommentarer
Skicka en kommentar