Először fogadtak el nemzetközi jogilag kötelező egyezményt a mesterséges intelligenciáról

2024. szeptember 6. – 09:01

Másolás

Vágólapra másolva

Az Európa Tanács igazságügyi miniszterei aláírták az első olyan, nemzetközi jogilag kötelező érvényű keretegyezményt, ami biztosítja, hogy a mesterséges intelligenciát alkalmazó rendszerek használata összhangban legyen az emberi jogokkal, a demokráciával és a jogállamisággal, olvasható a strasbourgi székhelyű testület hivatalos oldalán. Az Európa Tanács igazságügyi minisztereinek vilniusi konferenciáján Andorra, Grúzia, Izland, Norvégia, a Moldovai Köztársaság, San Marino, az Egyesült Királyság, valamint Izrael, az Amerikai Egyesült Államok és az Európai Unió írta alá az egyezményt.

„Biztosítanunk kell, hogy a mesterséges intelligencia térnyerése ne aláássa, hanem alátámassza a normáinkat. A keretegyezmény egy nyitott, globális hatókörű szerződés. Remélem, hogy ezek az első aláírások a sok közül, amelyeket gyorsan követik majd a ratifikációk, hogy a szerződés a lehető leghamarabb hatályba léphessen” – mondta Marija Pejčinović Burić, az Európa Tanács főtitkára.

A szerződés olyan jogi keretet biztosít, amely a mesterséges intelligenciával működő rendszerek teljes életciklusára kiterjed. A szerződéshez a világ minden tájáról csatlakozhatnak azok az országok, amelyek vállalják az egyezmény betartását.

Az Európai Unió nemrég jogszabályt fogadott el a mesterséges intelligenciáról, tavaly pedig a technológiában élenjáró amerikai cégek vállalták, hogy tartani fogják magukat nyolc alapelvhez a fejlesztés során. A Meta, a Microsoft és az OpenAI mellett az Amazon, az ex-OpenAI-osok által alapított Anthropic, a Google és a Pi nevű chatbottal ismertté vált Inflection vállalásairól hosszabban itt lehet olvasni. Rövidebben a lényeg, hogy a cégek

  • vállalják a termékeik belsős és külsős tesztelését még a megjelenésük előtt;
  • megosztják a tudásukat az MI kockázatainak kezeléséről a többi iparági szereplővel, kormányokkal, civilekkel és egyetemekkel is;
  • invesztálnak a kiberbiztonságba, hogy megóvják a nem nyilvános modelljeiket;
  • alávetik a termékeiket külsős vizsgálatoknak;
  • olyan módszereket dolgoznak ki, amelyekkel egyértelművé lehet tenni, hogy egy adott tartalmat MI generált-e;
  • beszámolnak a modelljeik képességeiről, limitációiról és a megfelelő felhasználási módokról;
  • előtérbe helyezik az MI társadalmi hatásaira vonatkozó kutatásokat;
  • vállalják, hogy olyan modelleket alkotnak, amelyek a társadalom legnagyobb kihívásaira adnak választ.
Kedvenceink
Partnereinktől
Kövess minket Facebookon is!