Бывший главный коммерческий директор секретного центра исследования и разработок Google Мо Гавдат рассказал о том, что компания стоит на пороге воистину опасных открытий. Как пишет Express, по словам бывшего сотрудника компании, в Google скоро могут создать полноценный «думающий» искусственный интеллект.
Гавдат устроился на работу в Google в 2007 году и в скором времени начал курировать отдел секретных разработок компании, известный тогда, как Google X. Там и произошёл случай, которой заставил его задуматься о будущем человечества.
В спецотделе компании разрабатывали роботизированные руки, способные эффективно подбирать предметы. Гавдат увидел, как одна такая рука «научилась» поднимать с земли мяч. Роботы смогли эффективно повторить этот манёвр с любым другим предметом спустя всего двое суток.
«Тогда я внезапно понял, что это очень страшно. Мы работали с этими роботами всего неделю. За этот срок они научились делать то, на что у детей уходит два года. И тут меня осенило — эти роботы и есть дети, но они развиваются с невообразимой скоростью. Машины даже с самым базовым уровнем интеллекта могут развиваться необычайно быстро. Реальность такова, что мы создаём Бога», — рассказал Гавдат.
Эксперт считает, что искусственный интеллект может достичь технологической сингулярности — точки, в которой он становится самостоятельным и неконтролируемым. По его словам, сценарий, который ранее можно было увидеть только в фантастических фильмах вроде «Матрицы» или «Терминатора», в скором времени может воплотиться в реальной жизни.
При этом подобные опасения озвучил не один только Гавдат — Илон Маск также предупредил об опасности экспериментов в области искусственного интеллекта.
«Почему очень умные люди не боятся искусственного интеллекта? Очень умные люди не думают, что компьютер может быть таким же умным, как они. Очевидно, что это не так, что это просто высокомерие говорит. Мы движемся к ситуации, когда искусственный интеллект «обгонит» человечество. Думаю, что это произойдёт меньше, чем через пять лет», — заявил Маск.
Читайте по теме: В Китае «чипировали» детей
Обсуждение (9)
Фантастика в будующем станет реальностью, вполне возможно, что искуственный интелект выйдет из под контроля и уничтожит человечество, если раньше не уничтожат его, постоянно мутирующие вирусы, возможно искуственно созданные.
Учитывая, какую роль играет ИИ в существовании человечества уже сегодня, можно предположить и негативный сценарий развития.
Никого кроме антихриста они не слепят.И это неизбежно,по той причине,что человеки пришли к этому сами.Содом,наркомания,анальщина-как бы всё нормально,а несогласные,типо,пещерные люди.Есть ещё более трудные для понимания вещи.Все злектрофицированные устройства создают поля-антиподы естесственным полям.Цифровое фото рвёт ауру на пиксели,и т.д.Всё это незаметно суммируясь множит энтропию-результат:войны,катаклизмы,ускорение времени,а так-же самореализацию через предшественников вышеупомянутого "товарища" всяких цифро-вакцин-эпидем геев биллов..Все эти вещи требуют длительной расшифрови.(Самообразование в помощь).Мысли людей менее материальны чем электросмог,но это то-же энергия,и то-же суммируется согласно закона сохранения энергии.
Им верить- себя не уважать.
Если кратенько, то опасность возникает тогда и только тогда, когда человек передает этому самому "искусственному интеллекту" право вето. Во всех остальных случаях он просто выключается нажатием одной кнопки... ну, в крайнем, пиковом случае - кувалдой по девайсу.
Кувалда там то-же просчитана.Ещё во времена Айзека Азимова.
Если не произойдёт катастрофы, то в будущем ИИ будет управлять человечеством. Без вредных привычек, строго следующий прописанным правилам, работающий 24/7, не требующий оплаты за труд и бонусов, ... в общем идеальный чиновник.
Мвахаха, наивный юноша!
То, о чем шла речь, это никакой не ИИ (хотя в рекламных целях его иногда так называют), а обыкновенный линейный алгоритм. Настоящий ИИ способен к самообучению и самомодификации. Поэтому в зависимости от ситуации он вполне способен научиться, к примеру, брать взятки или качать права перед начальством.
to Яркая Личность:
Не хамим и не путаем интеллект с обычной алчностью.