Група от 16 китайски научни и технологични асоциации представи глобална инициатива за управление на изкуствения интелект, насочена към изграждането на ориентиран към хората подход и създаването на отворена, справедлива, приобщаваща и ефективна глобална рамка.
В съобщение за новини във вторник Китайската асоциация за наука и технологии заяви, че инициативата е изготвена, за да помогне за изграждането на глобален академичен консенсус и да насърчи координираното управление на ИИ. Той се фокусира върху това да гарантира, че AI служи на общественото благо, подобрява благосъстоянието и поддържа безопасността, като същевременно предпазва от рискове.
Асоциациите включват Китайската асоциация по автоматизация, Китайския институт по електроника, Китайската компютърна федерация и Китайската асоциация за изкуствен интелект.
Според групата, докато развитието на ИИ и широкомащабните приложения създават големи възможности за икономически и социален прогрес, те също така поставят нови предизвикателства за глобалното управление. Китай последователно се застъпва за балансиране на развитието и сигурността и координиране на иновациите с регулиране в глобалното управление на ИИ, се казва в изявлението.
Научните и технологични асоциации играят важна роля в изграждането на консенсус в управлението, укрепвайки основите му и подкрепяйки прилагането му, според съобщението.
Инициативата призовава общото благосъстояние на човечеството да стане основен принцип, ръководещ изследванията на ИИ, като се гарантира, че технологичното развитие служи на споделените интереси на всички.
Развитието на ИИ трябва също така да подкрепя общите човешки ценности, да зачита различията в историите, културите, социалните системи и пътищата на развитие на страните и да играе положителна роля в справянето с предизвикателствата на глобалното развитие.
Инициативата насърчава ориентираните към практиката изследвания, идентифицирането и популяризирането на възпроизводими случаи, в които AI е от полза за обществото, и разумното споделяне на технологични постижения и опит.
Той предлага безопасността да стане основно изискване за изследвания и управление на ИИ, за да се гарантира, че технологията остава под човешки контрол.
Документът подчертава рисковете, включително злоупотреба с алгоритми, разпространение на невярна информация, изтичане на поверителност и манипулиране на модела. Той също така посочва потенциални системни рискове като загуба на контрол, самовъзпроизвеждане и автономно бягство.
Инициативата подчертава равното право на всички страни да участват в изследванията и управлението на ИИ, както и правото им да разработват политики, подходящи за техните национални условия.
Той се противопоставя на технологичната хегемония, академичните бариери и неразумните монополи и призовава за по-голямо внимание към развиващите се страни и уязвимите групи в области като достъп до данни, обучение на таланти и създаване на правила.
Той също така призовава за по-силен академичен обмен и изграждане на капацитет с развиващите се страни, за да подобрят техните способности за изследване и управление на ИИ и да помогнат за намаляване на глобалната пропаст в разузнаването.
Инициативата насърчава учените от цял свят да работят заедно за справяне с общи предизвикателства, съгласуване на усилията за управление с практическите нужди и укрепване на координацията между академичните институции, правителствените органи и международните организации.
Той също така подкрепя напредъка в създаването на международен орган за управление на ИИ в рамките на ООН.
[email protected]
Нашия източник е Българо-Китайска Търговско-промишлена палaта