Root NationЖаңалықтарIT жаңалықтарыТехнология мамандары AI эксперименттерін тоқтатуды талап етеді

Технология мамандары AI эксперименттерін тоқтатуды талап етеді

-

Технология жетекшілері мен көрнекті AI зерттеушілері қол қойды ашық хат, бұл AI зертханалары мен компанияларды жұмысын «бірден тоқтатуға» шақырады.

Қол қоюшылар, соның ішінде Стив Возняк пен Илон Маск, тәуекелдер ауқымынан тыс технологияларды өндіруден кем дегенде алты ай үзіліс жасауды талап ететінімен келіседі. GPT-4. Бұл қазір бар AI жүйелерінен қуаныш пен қанағат алу және адамдарға оларға бейімделуге және олардың пайдалы екенін көруге мүмкіндік беру.

Технология жетекшілері мен сарапшылар AI эксперименттерін тоқтатуға шақырады

Хатта AI жүйелерінің қауіпсіздігін қамтамасыз ету үшін сақтық пен алдын ала ойлану қажет, бірақ олар еленбейді. Жазбаша немесе визуалды хабарламаларға мәтінмен жауап бере алатын жаңа OpenAI үлгісі GPT-4 сілтемесі компаниялар технологияны пайдалана отырып, күрделі чат жүйелерін құруға жарысқан кезде келеді. Мысалы, Microsoft жақында оның жаңартылған Bing іздеу жүйесі GPT-4 үлгісінде 7 аптадан астам жұмыс істеп тұрғанын растады және Google жақында ресми түрде таныстырды. Бард – LaMDA негізіндегі жеке генеративті жасанды интеллект жүйесі.

Жасанды интеллект туралы алаңдаушылық бұрыннан бар, бірақ ең озық технологияны қабылдау жарысы айқын жасанды интеллект біріншісі қазірдің өзінде алаңдатады. «Соңғы айларда AI зертханалары ешкім, тіпті олардың авторлары да - түсіне, болжауға немесе сенімді түрде басқара алмайтын барған сайын күшті цифрлық ақыл-ойды дамыту және енгізу үшін бақылаусыз жарысқа түсті», - делінген хатта.

Технология жетекшілері мен сарапшылар AI эксперименттерін тоқтатуға шақырады

Хатты жаһандық апатты және экзистенциалды тәуекелдерді және жаңа технологияларды, атап айтқанда, AI-ны теріс пайдалануды азайту үшін жұмыс істейтін Future of Life Institute (FLI) коммерциялық емес ұйымы жариялады. Бұған дейін Маск AI қауіпсіздігін зерттеу үшін FLI-ға 10 миллион доллар берді. Оған және Возняктан басқа, қол қойғандар арасында AI саласындағы бірқатар әлемдік көшбасшылар бар, мысалы, AI және цифрлық саясат орталығының президенті Марк Ротенберг, MIT физигі және FLI президенті Макс Тегмарк және автор Ювал Ноа Харари.

Харари сондай-ақ өткен аптада Нью-Йорк Таймс газетіне авторлық мақаламен байланысты тәуекелдер туралы ескертті. жасанды интеллектГуманитарлық технологиялар орталығының негізін қалаушылар және ашық хатқа қол қойған басқа да тұлғалар Тристан Харрис пен Аза Раскин онымен бірге жұмыс істеді.

Қоңырау өткен жылы 700-ден астам машиналық оқыту зерттеушілері арасында жүргізілген сауалнамадан кейін жасалды, оның жартысына жуығы AI-дан «өте жаман салдарлардың», оның ішінде адамның жойылуының 10% ықтималдығы бар екенін айтты. Жасанды интеллект зерттеулеріндегі қауіпсіздік туралы сұраққа респонденттердің 68%-ы көбірек немесе көп нәрсе істеу керек екенін айтты.

Сондай-ақ оқыңыз:

Джерелоengadget
Тіркелу
туралы хабарлау
қонақ

0 Пікірлер
Енгізілген шолулар
Барлық пікірлерді көру
Жаңартуларға жазылыңыз