Root NationЖаңалықтарIT жаңалықтарыGoogle компаниясының бұрынғы басшысы жасанды интеллектті ядролық қарумен салыстырды

Google компаниясының бұрынғы басшысы жасанды интеллектті ядролық қарумен салыстырды

-

Google компаниясының бұрынғы бас директоры Эрик Шмидт жасанды интеллектті (AI) ядролық қарумен салыстырды және әлемдегі ең қуатты елдердің бір-бірін құртуына жол бермейтін өзара сенімді жоюға ұқсас тежеу ​​режимін құруға шақырды.

Google компаниясының бұрынғы басшысы жасанды интеллектті ядролық қарумен салыстырды

Шмидт 22 шілдеде Аспен қауіпсіздік форумында ұлттық қауіпсіздік және AI мәселелерін талқылау барысында жасанды интеллекттің қауіптілігі туралы айтты. Технологиядағы моральдың құндылығы туралы сұрағанда, Шмидт өзінің Google-дың алғашқы күндерінде ақпараттың күші туралы аңғал екенін түсіндірді. Содан кейін ол технологияны олар қызмет ететін адамдардың этикасы мен моральына жақсырақ сәйкес келтіруге шақырды және жасанды интеллект пен ядролық қаруды біртүрлі салыстырды.

Шмидт Қытай мен Америка Құрама Штаттары жасанды интеллект туралы келісім жасауы қажет жақын болашақ туралы айтты. «50-60-шы жылдары біз ядролық сынақтар үшін «тосынсыз» ережесі жоқ әлемді құрдық, нәтижесінде оларға тыйым салынды», - деді Шмидт. «Бұл сенім тепе-теңдігінің немесе сенімсіздіктің мысалы, бұл «таңқалуға болмайды» ережесі. Мен АҚШ-тың Қытайды жемқор немесе коммунистік немесе басқалар деп санауы, ал Қытайдың Американы жеңіліске ұшыраған ел ретінде қарастыруы... адамдарға «О, Құдайым, олар бірдеңе жасайды» деп айтуға мүмкіндік береді деп қатты алаңдаймын. түсініксіз нәрсе басталады... .

AI және машиналық оқыту - бұл қызықты және жиі түсінбейтін технология. Ол негізінен адамдар ойлағандай ақылды емес. Ол шедевр деңгейіндегі өнер туындыларын жасай алады, Starcraft II-де адамдарды жеңіп, пайдаланушылар үшін қарапайым телефон қоңырауларын жасай алады. Дегенмен, оны үлкен қалада көлік жүргізу сияқты күрделі тапсырмаларды орындауға тырысу сәтсіз болды.

Шмидт Қытайды да, АҚШ-ты да қауіпсіздік мәселелеріне алаңдататын ойдан шығарылған жақын болашақ туралы айтады, бұл оларды AI-ді қамту үшін белгілі бір келісімге отыруға мәжбүр етеді. Ол 1950 және 60 жылдарды еске түсірді, бұл кезде дипломатия планетадағы ең өлімге әкелетін қару-жарақтардың айналасында бірқатар бақылаулар жасады. Бірақ Ядролық сынақтарға тыйым салу туралы келісім, SALT II және басқа да маңызды заңнамалар жасалғанға дейін бейбітшілік орнату үшін ядролық жарылыстар және, ең бастысы, Хиросима мен Нагасакидің жойылуы он жыл қажет болды.

Екінші дүниежүзілік соғыстың соңында Америка қиратқан жапондық екі қала ондаған мың адамның өмірін қиып, әлемге ядролық қарудың мәңгілік сұмдығын дәлелдеді. Содан кейін Ресей мен Қытай үкіметтері қару-жарақ алуға асықты. Бұл қаруларды қолдану мүмкіндігімен өмір сүретініміз - өзара кепілдік берілген жою (MAD) деп аталатын нәрсе, егер бір ел ядролық қаруды іске қосса, кез келген басқа ел жасай алатынына кепілдік беретін тежеу ​​теориясы. Біз жер бетіндегі ең жойқын қаруларды қолданбаймыз, өйткені ол кем дегенде бүкіл әлемдегі өркениетті жоюы мүмкін.

Шмидттің түрлі-түсті түсініктемелеріне қарамастан, біз AI үшін MAD қажет емес немесе қажет емес. Біріншіден, AI ядролық қарумен салыстырғанда өзінің жойқын күшін әлі дәлелдеген жоқ. Бірақ биліктегі адамдар бұл жаңа технологиядан қорқады және әдетте дұрыс емес себептермен. Адамдар тіпті ядролық қаруды басқаруды жасанды интеллектке беруді ұсынды, бұл оны қолдануға адамға қарағанда жақсы арбитр болады деп санайды.

Google компаниясының бұрынғы басшысы AI-ны ядролық қарумен салыстырды

Жасанды интеллект мәселесі оның ядролық қарудың ықтимал жойғыш күшіне ие болуында емес. Мәселе мынада: жасанды интеллект оны жасаған адамдар сияқты жақсы және ол оны жасаушылардың құндылықтарын сақтайды. Жасанды интеллект классикалық «қоқыс шығару, қоқыс шығару» мәселесінен зардап шегеді: нәсілшіл алгоритмдер нәсілшіл роботтарды жасайды және барлық AI оны жасаушылардың көзқарастарын ұстанады.

Демис Хассабис, DeepMind компаниясының бас директоры, Starcraft II ойыншыларын жеңетін AI үйрететін компания мұны Шмидтке қарағанда жақсы түсінетін сияқты. Шілде айындағы Лекс Фридманның подкастына берген сұхбатында Фридман Хассабистен AI сияқты қуатты технологияны қалай басқаруға болатынын және Хассабистің өзі осы күштің бұзылуынан қалай аулақ бола алатынын сұрады.

Хасабистің жауабы өзі туралы. «Жасанды интеллект тым үлкен идея», - деді ол. «AI-ны кім жасайтыны, олардың қандай мәдениеттерден шыққаны және олардың құндылықтары қандай екені маңызды. AI жүйелері өздігінен үйренеді ... бірақ жүйе жүйе авторларының мәдениеті мен құндылықтарымен таңбаланған болып қалады ».

Жасанды интеллект оның авторының көрінісі. Ол 1,2 мегатонналық жарылыспен қаланы жермен жексен ете алмайды. Егер адам оған мұны үйретпесе.

Сіз Украинаға орыс басқыншыларына қарсы күресуге көмектесе аласыз. Мұны істеудің ең жақсы жолы - Украина Қарулы Күштеріне қаражат беру Lifelife немесе ресми парақшасы арқылы NBU.

Сондай-ақ оқыңыз:

Джереловице
Тіркелу
туралы хабарлау
қонақ

0 Пікірлер
Енгізілген шолулар
Барлық пікірлерді көру
Басқа мақалалар
Жаңартуларға жазылыңыз
Қазір танымал