Etica inteligenței artificiale

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

Etica inteligenței artificiale este o ramură a eticii care studiază implicațiile economice , sociale și culturale ale dezvoltării sistemelor de inteligență artificială (AI). [1]

Filosofia , în ceea ce privește problema AI, joacă în prezent un rol din ce în ce mai central în dezbaterea internațională care nu se mai limitează, ca în trecut, la singura dimensiune logico-teoretică a problemei, ci este mai degrabă obligată să abordeze în special problemele etice care apar din ceea ce este definit de mulți ca fiind una dintre cele mai mari revoluții industriale din istorie, adesea identificată cu numele de Industrie 4.0 . Prin urmare, devin fundamentale teme și concepte precum fiabilitatea , legalitatea , etica și responsabilitatea , cărora filosofia trebuie să-i acorde atenția dacă dorește ca dezvoltarea tehnologică exponențială să fie corect reglementată și controlată în viitor. [2]

Prin urmare, inițiativele naționale, europene și extra-europene sunt foarte recente, care pentru prima dată au ridicat problema capacității de a reglementa industria tehnologică și, în special, lumea din ce în ce mai largă ocupată de inteligența artificială. [3]

Uniunea Europeană

Un interes deosebit sunt Ghidurile etice privind inteligența artificială create de Grupul de experți al Comisiei Europene [4] , care se ocupă de cerințele necesare și fundamentale pentru o IA fiabilă, concentrându-se pe subiecte precum securitatea, confidențialitatea și confidențialitatea datelor și Material IT. [5]

Trecând la acest subiect, putem considera inițiativa, lansată sub numele de Inteligență artificială de încredere, ca fiind ultimul pas fundamental într-o cale articulată desfășurată de Comisia Europeană care vizează publicarea, pentru prima dată în istoria Europei , a ghid de linii proprii pentru a asigura o abordare etică a inteligenței artificiale.

Această operațiune fundamentală la care au participat cetățeni, instituții și cercetători s-a încheiat pe 8 aprilie 2019 cu o listă de cerințe care fac posibilă garantarea unei reglementări bine definite și dezvoltate în mod obișnuit cu privire la problemele de fiabilitate și siguranță tehnologică. [6]

Andrus Ansip , vicepreședinte pentru piața unică europeană, a subliniat, de fapt, importanța anumitor aspecte care leagă inteligența artificială de problema etico-juridică, afirmând că: „Dimensiunea etică a inteligenței artificiale nu este nici un lux, nici un accesoriu”. argumentând mai târziu că: „Numai cu încredere societatea noastră se poate bucura pe deplin de beneficiile care vin din tehnologii”. [7]

Din aceste motive, Uniunea Europeană nu s-a limitat la observarea și descrierea acestui fenomen, ci printr-un plan de cercetare bine definit, a investit 1,5 miliarde de euro în perioada 2018/2020 în încercarea de a dezvolta și sprijini creșterea aplicațiilor. AI care, în timp ce privește inovația tehnologică în sectoarele considerate cheie, poate respecta în același timp „ Șapte cerințe pentru o inteligență artificială etică ”. [8]

Șapte cerințe pentru inteligența artificială etică

  1. Supravegherea umană: sistemele AI trebuie supravegheate de personal uman, care trebuie să garanteze utilizarea în conformitate cu drepturile fundamentale ale omului , plasând bunăstarea utilizatorului în centrul fiecărei utilizări.
  2. Robustețe și siguranță : trebuie înțeleasă ca o siguranță și fiabilitate a algoritmilor și ca o rezistență a sistemelor de control împotriva posibilelor operațiuni ilegale.
  3. Confidențialitate , control și gestionarea datelor: necesită o protecție ridicată și garantată a datelor cu caracter personal utilizate de utilizatori.
  4. Transparență: exprimă necesitatea de a garanta trasabilitatea sistemelor și de a demonstra procesele și operațiunile efectuate de algoritm.
  5. Diversitate, corectitudine, absența discriminării : sistemele de inteligență artificială ar trebui să ia în considerare abilitățile și abilitățile umane, arătând corectitudinea și garantând accesibilitatea tuturor. Este implementat în încercarea de a evita ca algoritmii să poată fi supuși unor influențe istorice involuntare sau că pot apărea modele de guvernare inadecvate.
  6. Wellness social și de mediu : să fie luat în considerare în toate domeniile și în orice moment impactul asupra mediului și social, încurajând utilizarea AI doar acolo unde utilizarea acestuia poate garanta o dezvoltare durabilă .
  7. Responsabilitate : sistemele trebuie verificate continuu, atât intern cât și extern, minimizând posibilele efecte negative, mai ales în cazul în care pot exista încălcări ale drepturilor fundamentale.

Cu toate acestea, punctele de mai sus nu trebuie înțelese ca o simplă reglementare pentru a se referi la momentul în care pot apărea probleme, ci sunt însoțite de o foaie de parcurs foarte precisă a acțiunilor și intențiilor prin care Europa intenționează să dezvolte legislație care ar putea în viitor, urmând o acord comun, să fie extins și la organisme, națiuni și confederații non-europene. [8]

Prin urmare, acest regulament are ca principal obiectiv protejarea acțiunilor din ce în ce mai comune și din ce în ce mai importante desfășurate de diferitele sisteme de inteligență artificială, cu scopul de a genera o structură juridică și de reglementare reală care să poată satisface nevoia de reglementare a problemelor din ce în ce mai specifice și din ce în ce mai concrete legate de la utilizarea acestor noi dispozitive. [8]

Tocmai din aceste motive, deja înainte de stipularea codului de etică pentru încredere, în februarie 2017 a fost prezentată de Parlamentul European o propunere concretă adresată „ Recomandărilor adresate Comisiei privind normele de drept civil în domeniul roboticii[9] , în încercarea de a stabili reguli de drept civil care să fie aplicate uniform în toate statele membre, la utilizarea roboților în diferite contexte sociale și de lucru. [10]

De asemenea, trebuie adăugat că, în urma pozițiilor adoptate de Comisia Europeană cu privire la aceste probleme, unele entități și unele companii private au încercat, de asemenea, să lucreze în această direcție. Cum ar fi IBM , care a sprijinit cu plăcere inițiativele aduse de UE afirmând, prin cuvintele lui Martin Jetter, vicepreședinte al IBM Europe că: responsabil. Orientările UE reflectă multe principii pe care IBM le urmărește de ceva timp și suntem mândri că ne alăturăm grupului de experți care a dezvoltat aceleași orientări. " [8]

Italia

Prezentarea realizată de Agenția pentru Italia digitală a „ Cărții albe privind inteligența artificială în serviciul cetățeanului[11] datează din 21 martie 2018, în care reflecțiile sunt axate pe provocările, problemele și principiile care trebuie să reglementeze statul, întreprinderile și persoanele fizice cu privire la utilizarea AI.

Statele Unite ale Americii

La 7 iunie 2018, Google și-a publicat principiile etice ale inteligenței artificiale [12] . Sundar Pichai , CEO Google, a subliniat cât de importantă a fost AI în viața noastră de zi cu zi și, mai presus de toate, cât de important era să știm să o folosim în cel mai corect mod posibil. El a anunțat astfel cele șapte principii cheie ale Google AI:

  1. Fii benefic social;
  2. Evitați crearea sau întărirea prejudecăților neloiale;
  3. Fii construit și testat pentru siguranță;
  4. Fiți răspunzători față de utilizatori;
  5. Incorporează principiile de proiectare a confidențialității;
  6. Susțineți standarde ridicate de excelență științifică;
  7. Să fie disponibil pentru utilizări în conformitate cu aceste principii.

În plus, în același articol, Google a publicat aplicații de AI pe care nu intenționa să le urmărească, cum ar fi dezvoltarea tehnologiilor care ar putea provoca daune generale persoanei, dezvoltarea armelor cu scopul expres de a răni, utilizarea informațiilor pentru supravegherea, încălcarea normelor internaționale și a principiilor dreptului internațional și a drepturilor omului. [12]

Pe 26 martie 2019, Kent Walker (SVP Global Affairs la Google) a anunțat formarea unui consiliu consultativ extern care să contribuie la promovarea dezvoltării responsabile a IA. [13] Echipa a inclus economiști, ingineri, filosofi și experți în politici, pentru un total de opt persoane. Printre acești doi italieni: Luciano Floridi și Alessandro Acquisti. [14]

O notă datată 4 aprilie 2019 anunța că proiectul sa prăbușit complet, din cauza unor proteste pentru prezența lui Kay Coles James în cadrul echipei, acuzat de discriminare împotriva comunităților LGBT . [15]

China

Pe 25 mai 2019, China și-a publicat principiile etice pentru utilizarea corectă a inteligenței artificiale. Documentul „ Consensul inteligenței artificiale din Beijing ” a fost creat grație colaborării Institutului de cercetare din Beijing pentru inteligența artificială (BAAI) cu Universitatea din Beijing , Universitatea Tsinghua , Institutul de Automatizare, Academia de Științe din China, Institutul de Tehnologia Informației și companii precum Baidu , Alibaba și Tencent . [16]

Principiile AI de la Beijing sunt în total 15 și ar trebui să fie urmate de participanți pentru a proteja comunitatea și dezvoltarea umană. [17]

Cercetarea și dezvoltarea inteligenței artificiale ar trebui să respecte următoarele principii:

1. fii avantajos;

2. a fi în slujba umanității;

3. fii responsabil;

4. controlați riscurile;

5. adoptă metode de planificare etică;

6. reflectă diversitatea și incluzivitatea;

7. încurajează partajarea deschisă.

Utilizarea inteligenței artificiale ar trebui să respecte următoarele principii:

8. utilizarea corectă și atentă;

9. consimțământul informat;

10. educație și instruire.

Administrarea inteligenței artificiale ar trebui să respecte următoarele principii:

11. optimizarea ocupării forței de muncă;

12. armonie și cooperare;

13. adaptare și moderare;

14. rafinament și implementare;

15. planificarea pe termen lung.

Notă

  1. ^ [1] Andreas Kaplan. 2020. Inteligența artificială: accent pe etică și educație.
  2. ^ Etică și inteligență artificială: acum UE depășește orientările | Agenda digitală , pe agendadigitale.eu . Adus pe 29 ianuarie 2020 .
  3. ^ (EN) Vincy Davis, în urma UE, China lansează Principiile AI pe Packt Hub, 3 iunie 2019. Adus pe 29 ianuarie 2020.
  4. ^ (EN) Grup de experți la nivel înalt în domeniul inteligenței artificiale , al pieței unice digitale - Comisia Europeană, 14 iunie 2018. Accesat la 29 ianuarie 2020.
  5. ^ (RO) Colț de presă , pe Comisia Europeană - Comisia Europeană. Adus pe 29 ianuarie 2020 .
  6. ^ AI de încredere - O contribuție europeană la dezvoltarea inteligenței artificiale (AI) , pe Legge24 . Adus la 15 ianuarie 2020 .
  7. ^ Inteligență artificială? Da, dar ... Comisia UE reamintește „dimensiunea etică” , pe Europeforus , 10 aprilie 2019. Adus la 29 ianuarie 2020 .
  8. ^ a b c d Miti Della Mura, Un cod de etică pentru AI de încredere a Uniunii Europene , pe AI4Business , 9 aprilie 2019. Accesat la 15 ianuarie 2020 .
  9. ^ RAPORT cu recomandări către Comisie privind regulile de drept civil în domeniul roboticii , pe www.europarl.europa.eu . Adus pe 29 ianuarie 2020 .
  10. ^ Inteligența artificială etică: o provocare juridică, de reglementare, politică (și etică) , pe AI4Business , 7 noiembrie 2018. Accesat la 15 ianuarie 2020 .
  11. ^ Inteligența artificială în slujba cetățeanului - Document de proiect al cărții albe AI , pe whitebook-ia.readthedocs.io . Adus la 6 ianuarie 2020 .
  12. ^ A b (EN) AI la Google: principiile noastre , pe Google, 7 iunie 2018. Adus pe 6 ianuarie 2020.
  13. ^ (EN) Un consiliu consultativ extern pentru a contribui la dezvoltarea responsabilă a AI , pe Google, 26 martie 2019. Adus pe 6 ianuarie 2020.
  14. ^ Google, doi italieni în consiliul extern pentru dezvoltarea etică a inteligenței artificiale , în Repubblica , 28 martie 2019. Adus pe 29 ianuarie 2020 .
  15. ^ Google anulează comitetul de etică pentru inteligența artificială după protestele angajaților , pe Repubblica.it , 5 aprilie 2019. Accesat pe 6 ianuarie 2020 .
  16. ^ Inteligența artificială, a publicat standardele etice care nu trebuie depășite , în China, în Italia , 26 mai 2019. Accesat la 6 ianuarie 2020 .
  17. ^ ( ZH ) Beijing AI Principles , pe Beijing AI Principles . Adus la 6 ianuarie 2020 .

Bibliografie

  • Luciano Floridi , A patra revoluție. Modul în care infosfera transformă lumea , Milano, Raffaello Cortina Editore, 2017.

Elemente conexe