Etiek van kunsmatige intelligensie
Deel van 'n reeks oor |
Kunsmatige intelligensie |
---|
Tegnologie
|
Woordelys
|
Die etiek van kunsmatige intelligensie is die tak van die etiek van tegnologie spesifiek vir kunsmatige intelligensie (KI) stelsels.[1]
Die etiek van kunsmatige intelligensie dek 'n wye reeks onderwerpe binne die veld wat beskou word as 'n besondere etiese belang. Dit sluit algoritmiese vooroordele, regverdigheid, outomatiese besluitneming, aanspreeklikheid, privaatheid en regulering in. Dit dek ook verskeie opkomende of potensiële toekomstige uitdagings soos (hoe om masjiene te maak wat eties optree), dodelike outonome wapenstelsels, wapenwedloop-dinamika, KI-veiligheid en –belyning, tegnologiese werkloosheid, KI-geaktiveerde verkeerde inligting, hoe om sekere KI te behandel stelsels as hulle 'n morele status het (KI-welsyn en regte), kunsmatige superintelligensie en eksistensiële risiko's.[1] Sommige toepassingsareas kan ook besonder belangrike etiese implikasies hê, soos vir die gesondheidsorg, die onderwys of die militêre omgewing.
Masjien-etiek
[wysig | wysig bron]Masjien-etiek (of masjienmoraliteit) is die navorsingsveld wat gemoeid is met die ontwerp van kunsmatige morele agente (KMA's), robotte of kunsmatig intelligente rekenaars wat moreel optree of asof hul moreel optree.[2][3][4][5] Om die aard van hierdie agente te verantwoord, is voorgestel om sekere filosofiese idees te oorweeg, soos die standaardkarakteriserings van agentskap, rasionele agentskap, morele agentskap en kunsmatige agentskap, wat verband hou met die konsep van KMA's.[6]
Daar is besprekings oor die skep van toetse om te sien of 'n KI in staat is om etiese besluite te neem. Alan Winfield kom tot die gevolgtrekking dat die Turingtoets gebrekkig is en dat die vereiste vir 'n KI om die toets te slaag te laag is.[7] 'n Voorgestelde alternatiewe toets is een genaamd die Etiese Turing-toets, wat op die huidige toets sal verbeter deurdat verskeie beoordelaars besluit of die KI se besluit eties of oneties is.[7] Neuromorfiese KI kan een manier wees om moreel bekwame robotte te skep, aangesien dit daarop gemik is om inligting soortgelyk aan mense te verwerk, nie-lineêr en met miljoene onderling gekoppelde kunsmatige neurone.[8] Net so kan heelbrein-emulasie (skandeer van 'n brein en simuleer dit op digitale hardeware) ook in beginsel lei tot mensagtige robotte, dus in staat tot morele aksies.[9] En groot taalmodelle is in staat om menslike morele oordele na te maak.[10] Dit laat onvermydelik die vraag ontstaan oor die omgewing waarin sulke robotte van die wêreld sal leer en wie se moraliteit hulle sal erf – of as hulle uiteindelik ook menslike 'swakhede' ontwikkel: selfsug, pro-oorlewingshoudings, inkonsekwentheid, skaalonsensitiwiteit, ens.
In Moral Machines: Teaching Robots Right from Wrong,[11] kom Wendell Wallach en Colin Allen tot die gevolgtrekking dat pogings om robotte reg van verkeerd te leer waarskynlik begrip van menslike etiek sal bevorder deur mense te motiveer om gapings in moderne normatiewe teorie aan te spreek en deur 'n platform vir eksperimentele ondersoek. As een voorbeeld het dit normatiewe etici bekendgestel aan die kontroversiële kwessie van watter spesifieke leeralgoritmes om in masjiene te gebruik. Vir eenvoudige besluite het Nick Bostrom en Eliezer Yudkowsky aangevoer dat besluitnemingsbome (soos ID3) meer deursigtig is as neurale netwerke en genetiese algoritmes,[12] terwyl Chris Santos-Lang ten gunste van masjienleer geargumenteer het op grond daarvan dat die norme van enige ouderdom moet toegelaat word om te verander en dat natuurlike versuim om ten volle aan hierdie spesifieke norme te voldoen noodsaaklik was om mense minder kwesbaar te maak vir kriminele "krakers".[13]
Robot-etiek
[wysig | wysig bron]Die term "robot-etiek" (soms "roboetiek") verwys na die moraliteit van hoe mense robotte ontwerp, bou, gebruik en behandel.[14] Robot-etiek kruis met die etiek van KI. Robotte is fisiese masjiene, terwyl KI slegs sagteware kan wees.[15] Nie alle robotte funksioneer deur KI-stelsels nie en nie alle KI-stelsels is robotte nie. Robot-etiek oorweeg hoe masjiene gebruik kan word om mense te benadeel of te bevoordeel, hul impak op individuele outonomie en hul uitwerking op sosiale geregtigheid.
Etiese beginsels
[wysig | wysig bron]In die hersiening van 84[16] etiese riglyne vir KI, is 11 groepe beginsels gevind: deursigtigheid, geregtigheid en regverdigheid, nie-kwaadwilligheid, verantwoordelikheid, privaatheid, weldaad, vryheid en outonomie, vertroue, volhoubaarheid, waardigheid, solidariteit. [16]
Luciano Floridi en Josh Cowls het 'n etiese raamwerk van KI-beginsels geskep wat gestel word deur vier beginsels van bio-etiek (weldadigheid, nie-kwaadwilligheid, outonomie en geregtigheid) en 'n bykomende KI-beginsel – verklaarbaarheid.[17]
Verwysings
[wysig | wysig bron]- ↑ 1,0 1,1 Müller, Vincent C. (30 April 2020). "Ethics of Artificial Intelligence and Robotics". Stanford Encyclopedia of Philosophy. Geargiveer vanaf die oorspronklike op 10 Oktober 2020.
- ↑ Anderson. "Machine Ethics". Geargiveer vanaf die oorspronklike op 28 September 2011. Besoek op 27 Junie 2011.
- ↑ Anderson, Michael; Anderson, Susan Leigh, reds. (Julie 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2.
- ↑ Anderson, M.; Anderson, S.L. (Julie 2006). "Guest Editors' Introduction: Machine Ethics". IEEE Intelligent Systems. 21 (4): 10–11. doi:10.1109/mis.2006.70. S2CID 9570832.
- ↑ Anderson, Michael; Anderson, Susan Leigh (15 Desember 2007). "Machine Ethics: Creating an Ethical Intelligent Agent". AI Magazine. 28 (4): 15. doi:10.1609/aimag.v28i4.2065. S2CID 17033332.
- ↑ Boyles, Robert James M. (2017). "Philosophical Signposts for Artificial Moral Agent Frameworks". Suri. 6 (2): 92–109.
- ↑ 7,0 7,1 Winfield, A. F.; Michael, K.; Pitt, J.; Evers, V. (Maart 2019). "Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems [Scanning the Issue]". Proceedings of the IEEE. 107 (3): 509–517. doi:10.1109/JPROC.2019.2900622. ISSN 1558-2256. S2CID 77393713.
- ↑ Al-Rodhan, Nayef (7 Desember 2015). "The Moral Code". Geargiveer vanaf die oorspronklike op 5 Maart 2017. Besoek op 4 Maart 2017.
- ↑ Sauer, Megan (8 April 2022). "Elon Musk says humans could eventually download their brains into robots — and Grimes thinks Jeff Bezos would do it". CNBC (in Engels). Besoek op 7 April 2024.
- ↑ Anadiotis, George (4 April 2022). "Massaging AI language models for fun, profit and ethics". ZDNET (in Engels). Besoek op 7 April 2024.
- ↑ Wallach, Wendell; Allen, Colin (November 2008). Moral Machines: Teaching Robots Right from Wrong. USA: Oxford University Press. ISBN 978-0-19-537404-9.
- ↑ Bostrom, Nick; Yudkowsky, Eliezer (2011). "The Ethics of Artificial Intelligence" (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Geargiveer (PDF) vanaf die oorspronklike op 4 Maart 2016. Besoek op 22 Junie 2011.
- ↑ Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". Geargiveer vanaf die oorspronklike op 25 Desember 2014. Besoek op 4 Januarie 2015.
- ↑ Veruggio, Gianmarco (2011). "The Roboethics Roadmap". EURON Roboethics Atelier. Scuola di Robotica: 2. CiteSeerX 10.1.1.466.2810.
- ↑ Müller, Vincent C. (2020), Zalta, Edward N., ed., Ethics of Artificial Intelligence and Robotics (Winter 2020 ed.), Metaphysics Research Lab, Stanford University, https://plato.stanford.edu/archives/win2020/entries/ethics-ai/, besoek op 2021-03-18
- ↑ 16,0 16,1 Jobin, Anna; Ienca, Marcello; Vayena, Effy (2 September 2020). "The global landscape of AI ethics guidelines". Nature. 1 (9): 389–399. arXiv:1906.11668. doi:10.1038/s42256-019-0088-2. S2CID 201827642.
- ↑ Floridi, Luciano; Cowls, Josh (2 Julie 2019). "A Unified Framework of Five Principles for AI in Society". Harvard Data Science Review. 1. doi:10.1162/99608f92.8cd550d1. S2CID 198775713.