The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



"Проект OpenNMT развивает систему машинного перевода на основ..."
Версия для распечатки Пред. тема | След. тема
Форум Разговоры, обсуждение новостей
Исходное сообщение [ Отслеживать ]
Подсказка: Доступны два режима работы форума: "Раскрыть нити" и "Свернуть нити".
. "Проект OpenNMT развивает систему машинного перевода на основ..." +2 +/
Сообщение от Orduemail (ok), 15-Янв-17, 21:28 
Тебе только кажется, что мощности не нужны, потому что интеллект ты наблюдаешь исключительно со стороны, как чёрный ящик. Даже свой собственный. Но там внутри чёрного ящика происходит очень много разнообразных процессов обработки информации, ты оттуда получаешь либо уже готовый результат, либо почти готовый, потому что под непосредственным твоим сознательным контролем (или под видимостью этого контроля -- тут реально неясно) только чрезвычайно медленная последовательная обработка информации. А там, под капотом где-то, запрятана массированная параллельность. Скажем, обработка зрительной информации -- я боюсь наврать, читал один раз и не очень помню, -- но там на каждый "пиксель" с сетчатки три слоя нейронов в самой сетчатке, и нейрон в таламусе, и ещё несколько слоёв в первичной зрительной коре. И это всё _первичная_ зрительная обработка, которая выделяет объекты, вопросы "что это", и "где это" (в смысле локализации в пространстве) решаются уже ассоциативными областями коры, которые _существенно_ больше. И в этих ассоциативных корах, идёт синтез информации с разных органов чувств и из памяти, чтобы ты мог иметь потом законченный образ предмета. Это всё вопросы восприятия информации, но для того, чтобы создаваемый интеллект мог бы оперировать понятиями где-то плюс-минус на нашем уровне, придётся создать аналог. И я не думаю, что этот аналог будет потреблять меньше вычислительной мощности, нежели то, что в голове у человека.

Задачи ИИ всегда упирались в то, что никакой вычислительной мощности на них не хватает. Да, были и алгоритмические затыки: скажем обучать через голый back-propagation большую нейронную сеть очень утомительно, пришлось придумать deep-learning, чтобы продолжать наращивать количество слоёв. Но я всё же считаю, что ограничителем всегда была мощность: когда железо позволило моделировать десятки тысяч нейронов любому интересующемуся школию, когда широко встала необходимость придумать deep-learning, тогда его и придумали. И на данный момент, опять и снова возможности существующих алгоритмов ограничены мощностью железа.

Проблема не только в количестве -- это да, несомненно. Если бы было нужно только количество, то интеллект на Земле появился бы на несколько сот миллионов лет раньше -- тогда уже были все молекулярные механизмы, которые лежат в основе работы нейронов человека. Собрать из этих нейронов интеллект оказалось сложнее, чем просто отрастить нужное количество нейронов. Мало того, человеку, получившему в своё распоряжение мозг, способный к интеллектуальной деятельности, потребовались многие десятки тысяч лет, чтобы научиться этот мозг обучать так, чтобы он систематически начал бы демонстрировать интеллект, а не от случая к случаю. И даже сегодня большинство человеческих мозгов не удаётся этому научить.

Ответить | Правка | Наверх | Cообщить модератору

Оглавление
Проект OpenNMT развивает систему машинного перевода на основ..., opennews, 14-Янв-17, 20:57  [смотреть все]
Форумы | Темы | Пред. тема | След. тема



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру