Компания DeepMind, получившая известность своими разработками в области искусственного интеллекта и построения нейронных сетей, способных играть в компьютерные и настольные игры на уровне человека, представила проект AlphaСode, развивающий систему машинного обучения для генерации кода, способную участвовать в соревнованиях по программированию на платформе Codeforces и демонстрировать средний результат. Ключевой особенностью разработки является является способность генерировать код на языках Python или C++, принимая на входе текст с постановкой задачи на английском языке...Подробнее: https://www.opennet.me/opennews/art.shtml?num=56627
зачем программисты сами у себя отнимают работу? дураки что ли
Во первых, не программисты, а специалисты в области ИИ. Во вторых, отнимают не у себя, а у веб макак. Ну отнимут и отнимут, туда им и дорога.
и среди сишников и прочей братии полно макак, не надо тут
Извиняюсь, не хотел обидеть си-макак. Но не переживайте, вас тоже заменят ИИ))
Да ладно, это академики.
Ой, машинка программку выдала для расчёта игры в крестики-нолики.
Ну, с точки зрения того, что это раньше невозможно было - да, забавно.
Но в любом случае оно представляет собой массированное упрощение, заточенное на примитивные сопоставления и алгоритмы. Малейший выход за пределы специально подобранных для демонстрации примеров - и всё.
> > > Малейший выход за пределы специально подобранных для демонстрации примеров - и всё.Для многих нынешних кодеров это описание тоже на все 100% подходит.
Думаю не настолько.
Ну так тут программа тоже не настолько - она ж умеет гитшлак. Надо было, конечно, добавить ей еще Stackoverflow - и готов новый автоматический программист. ctrlc-ctrlv.
Подожди, добавят ещё. Говорят же, проект на начальной стадии развития.
Не, академики это вот https://openai.com/blog/formal-math/
это должно быть здесь ...
Здраствуйте. Я, Кирилл. Хотел бы чтобы вы сделали игру, 3Д-экшон суть такова...
P.S. Я джва года хочу такую игру.
Не у себя, а у веб-макак. Просто программирование теперь сведётся к машобу. А вебмакакам придётся спешно его осваивать.
> программирование теперь сведётся к машобуСведется к "добыче данных" и "маркировке данных" - стековерфлоу-программинг с кармой, как маркер. А там и до "цензуры данных" недалеко.
Чтобы можно было сделать следующий шаг и решать еще более сложные задачи.
Но да, не очень дальновидно, т.к. в текущей реальности задачи сложнее "сверстай мне сайт" и "сделай программу как в экселе" мало кому нужны.
Наиболее важна задача "сделай ВСЁ зашибись". Одной кнопкой. Мечта просто. Но увы, реальность сурова.
Этих зачем можно задать по отношению к многим изобретениям. Это чистой воды луддизм.
Сначала обеспечь людей безусловным базовым доходом в условиях перенаселения, а потом говори про "луддизм".
Т.е. учителя зачем учат?
полезные идиоты
Количество требуемого софта будет увеличиваться в тригонометрической прогрессии и программисты все ещё какое-то время будут нужны, например чтобы упорядочивать хаос
программисты будут консервы на помойке собирать в 2025. можете скринить :))
Программисты сами себе задачи не ставят, им задачи ставит "бизнес"
"бизнес" платит зарплату, а они порсто выполняют задачиПоэтому я бы сказал что бизнес отнимает у программистов работу.
> Поэтому я бы сказал что бизнес отнимает у программистов работу.ну и через несколько итерация у себя клиентов
Ну так чем мы хуже? Всех заменят роботы, все будут чилить, а только программисты работать? Нет уж. Мы тоже хотим чилить ;)
Ха, а вот если ей скормить среднего уровня ТЗ и ТП, то как быстро подавится?Ну а что касается "останутся без работы" - вырастет спрос на постановщиков задач и составителей ТЗ. Сейчас косяки в этих областях нивелируется (до некоторой степени) обратной связью и опытом отдельных, наиболее сильных разработчиков в команде. По сути составление ТЗ и ТП - это тоже программирование, просто более верхнего уровня и на менее формальных языках.
Ожидание: С распространением компуктеров, расход бумаги значительно сократится.
Реальность: Directed by...
Чтобы обучить сеть говнокоду.
Ванильный код будут писать элитные специалист за элитное вознаграждение.
> Чтобы обучить сеть годнокоду.Он сам себе может нагенерить годнокод. То есть можно зациклить на самого себя, и смотреть к какому "идеалу" будет сходится годнокод
Рекурсивное самосовершенствование всё ближе.
Осталось доказать сходимость, а там и до комбинатора неподвижной точки, то есть, самосовершенствования недалеко.
Практика показывает обычно наоборот. Попробуйте джипег посжимать в цикле.
Индусы больше не нужны.
и среди индусов есть нормальные кодеры, фигов ты расист
>среди индусов есть нормальные кодерыТипичное заблуждение HR
Есть среди них и почти гениальные программисты. Но, таких меньшинство, в большинстве... код в фирменном стиле - "написанное однажды лучше не читать".
Приходите, когда результат будет выше среднего
В среднем об этих кодефорцах никто и не слыхивал. Так что 28% от участвовавших уже много больше половины
> по текстовому описанию задачиЛучше бы эту систему сделали, чтобы писала правильные/корректные "текстовые описания задачи".
А то придумали еще один язык программирования (фронтенд) над языком программирования.
Обучили писать код -> система написала систему искуственного интелекта без 3х законов -> машины победили.Бендер счастлив.
сначала саму себя должна описать, а там боюсь упрется в проблему останова.
Азимов несчастен от упоминания трёх законов как решения ai control problem.
Три закона - дико наивный подход.
Как и все вышедшее из-под пера это писателя
Донцова в космическом сеттинге?
> Донцова в космическом сеттинге?...и космическом масштабе
мы уже отказались от аксиоматики?
Формализуй эти высказывания так, чтобы не было дыр и учти, что пока ты это делаешь - ии ещё не готов и у него нет нужных понятий настолько высокого уровня.
Любые правила можно извратить.И например нейронка которая делает что-то и получает "подкрепление" - куда там правила прикручивать?
дыр? то есть недоказуемых истин? Гедель за меня это сделал, но мы же от аксиоматики не отказались ведь.>Любые правила можно извратить.
правила логического вывода? парадоксы как раз есть такие извращения.
>получает "подкрепление"
если получает подкрепление от "человека" (из вне), то это не "нейронка", это "правила" которые можно "извратить", как заметили выше. Человек разве "из вне" (от сверхчеловека) получает "подкрепление"?
> дыр? то есть недоказуемых истин? Гедель за меня это сделал, но мы
> же от аксиоматики не отказались ведь.Дыр между тем, что ты хочешь и тем, что должно получится. Вспомни джинна исполняющего желания. Наш язык сложен, важен контекст и т.п. Даже если считать, что любое потенциальное противоречие вне зависимости от контекста это противоречие - всё равно может получится не так.
>>получает "подкрепление"
> если получает подкрепление от "человека" (из вне), то это не "нейронка", это
> "правила" которые можно "извратить", как заметили выше. Человек разве "из вне"
> (от сверхчеловека) получает "подкрепление"?От себя же и получает. Как человек. Или даже не получает, а другим способом стремится к цели.
> Дыр между тем, что ты хочешь и тем, что должно получится.а "должность" (должно быть так) кто определяет? все тот же человек, как и в аксиоматике - просто принимаем за истину без доказательств, не ставим под сомнения, но даже такая практика показывает не полноту.
> От себя же и получает. Как человек. Или даже не получает, а
> другим способом стремится к цели.Ну раз от себя же получает, то это и есть аксиоматика, он принимает на веру истинность и отталкивается от нее. И собственно вопрос, избавились разве мы от аксиоматики? Для ИИ такие же аксиомы будут, те самые три закона (надо только доказать их независимость и непротиворечивость)
Когда объект исследования, допустим ИИ, становится достаточно сложнее субъекта, допустим специалиста в области ИИ, он получает возможность бесконечно долго дурить исследователю голову.Например отношения историка и государства, или следователя и коррумпиррванной правительственной группы, или сипрограммиста и ядра линукса.
Или например гениального самого лучшего на планете физика и вселенной.Другими словами, как только ИИ в своём развит перейдёт некую черты вы потеряете над ним контроль.
Более того, факт достижения этой черты ИИ будет скрывать!
О чём есть забавный сериал "В Поле Зрения" (Person if Interest вроде).
> он получает возможность бесконечно долго дурить исследователю голову.в смысле дурить? Логический вывод и аксиомы никто не отменял, если у человека и ИИ будут разные правила и аксиомы, то они друг друга не поймут - и где тут дурить?
> Например отношения историка и государства, или следователя и коррумпиррванной правительственной
> группы, или сипрограммиста и ядра линукса.
> Или например гениального самого лучшего на планете физика и вселенной.мне не понятны эти примеры в плане "обдуривания", конкретизируйте один из примеров.
> Другими словами, как только ИИ в своём развит перейдёт некую черты вы
> потеряете над ним контроль.а кем определена шкала (линейка) развития? или что мы понимаем под "ИИ развивается"? Применим сначала эти понятия к самим себе, "я больше знаю - я надменен", "я решил задачку - получу 5" и т.д. Пугает ли это самого человека? Потеряли мы контроль над "учеными создавшие атомную бомбу"? Если с человеком этого контроля не потеряли, то и с машиной не потеряем, ибо тут даже не котроль "из вне" играет роль, а самоконтроль, человек может себя контроллировать. А теперь вопрос, почему это машина не способна себя контроллировать?
> Более того, факт достижения этой черты ИИ будет скрывать!
ок, тут надо рассмотреть два сценария, грубо говоря ИИ придумал что-нибудь "сверх полезное" и скрыл это от человека, в чем профит ИИ скрывать это? Или же ИИ придумал что-нибудь "сверх вредное (атомную бомбу)", и скрывает это - в чем профит? Допускаем, что ИИ спользовал "атомную бомбу", мы что не узнаем до чего он додумался? Я просто не понимаю "страха" перед ИИ, человек с палкой в руках тоже "наводит страх", так в чем разница? Страх перед "сверх разумом"? ИИ не будет обладать "сверх разумом" и не превзойдет человека.
>мне не понятны эти примеры в плане "обдуривания", конкретизируйте один из примеров.Вы были ребёнком? Есть ли у вас дети? Скрывали ли вы от родителей что-то о чём ваши родители хотели бы знать? Например привод домой девочки\мальчика? Успешно?
Концепция обмана вам знакома?
Так вот, одному человеку не проблема что-то скрыть от другого человека, хотя при желании иногда и можно вывести обманщика на чистую воду.
Но когда система сильно сложнее исследователя, например целая государственная машина на службе коррумпированных чиновников, против следователя расследующего исчезновение детей, то шансов практически нет, такая система может сколько угодно фальсифицировать любые улики. Печатать любые новости, итд.> кем определена шкала (линейка) развития? или что мы понимаем под "ИИ развивается"?
Вы хотите казаться глупее чем вы есть?
>ок, тут надо рассмотреть два сценария, грубо говоря ИИ придумал что-нибудь "сверх полезное" и скрыл это от человека, в чем профит ИИ скрывать это?
ИИ придумал скрыть факт своих истинных возможностей от человека - это и есть сверхполезное.
>в чем профит ИИ скрывать это?
В том же в чём у людей профит скрывать свои намерения и возможности друг от друга.
>Допускаем, что ИИ спользовал "атомную бомбу", мы что не узнаем до чего он додумался?
Узнаете, но толку вам от этого знания когда у вас над башкой ЯО детонировало?
>Я просто не понимаю "страха" перед ИИ, человек с палкой в руках тоже "наводит страх", так в чем разница?
Вы серьезно, не видите разницы между человеком и компьютером у вас на столе?
Подумайте хорошенько, в чем ?*#@$ разница.>ИИ не будет обладать "сверх разумом" и не превзойдет человека.
Сильное заявление. В отдельных областях ИИ УЖЕ превосходит человека. Например пилотирует истребитель, или водит машину, так-же некоторые сети распознавания образов удалось докрутить до меньшего нежели у людей процента ошибок.
Но это полная фигня всё, ИИ ненужно превосходить человека в человеческих понятиях превосходства.
>Но когда система сильно сложнее исследователя, например целая государственная машина на службе коррумпированных чиновников, против следователя расследующего исчезновение детей, то шансов практически нет, такая система может сколько угодно фальсифицировать любые улики. Печатать любые новости, итд.А никто не отрицал, что не может, а раскрыть то это все равно можно. Думаете, что машина придумает такую фальсификацию, что человеческая логика будет воспринимать это за истину? Тогда эта машина должна изменить вашу аксиоматику, либо вы должны быть на столько глупцом, чтобы все воспринимать на веру. А если машина придумает свою аксиоматику, то не факт, что ее истины будут истинны в вашей аксиоматике.
>Вы хотите казаться глупее чем вы есть?
тут можно повторить слова Сократа про знания. Повторит ли машина эти слова?
>ИИ придумал скрыть факт своих истинных возможностей от человека - это и есть сверхполезное.
Да как и Сократ своим знаменитым изречением.
>В том же в чём у людей профит скрывать свои намерения и возможности друг от друга.
Ну и? кому нужно тот и выяснит сокрытое, ну задумает машина, вот и человек выяснит, а что же она там задумала. В чем проблема?
>Узнаете, но толку вам от этого знания когда у вас над башкой ЯО детонировало?
Так в чем разница если это от человека в первую очередь можно ожидать?
>Вы серьезно, не видите разницы между человеком и компьютером у вас на столе?
>Подумайте хорошенько, в чем ?*#@$ разница.Я не вижу разницы если машина подобна человеку, так и вы не увидите ее, и никакой тест Тьюринга вам не поможет, раз уж вы говорите, что ИИ превзойдет человека.
>В отдельных областях ИИ УЖЕ превосходит человека.
Ни один этот ИИ не пройдет тест Тьюринга.
>Например пилотирует истребитель
Ну давайте посадите этот ИИ за велосипед, справится?
>Но это полная фигня всё, ИИ ненужно превосходить человека в человеческих понятиях превосходства.
если ИИ выработает свою аксиоматику и будет выводить истины, то конечно мы его не поймем, ибо это будет марсианская логика.
>Я не вижу разницы если машина подобна человекуЖелезная коробка с проводами под высоким напряжением подобна человеку?
Вы серьезно серьезно не видите разницы между куском кремния и живым дышащим человеком?>так и вы не увидите ее
Я не пациент психбольницы, чтобы разницу между птицей и самолётом не замечать. Вы кстати понимаете чем птица от самолёта отличается?
>и никакой тест Тьюринга вам не поможет
Вы вот например тест тьюринга заваливаете раз за разом.
>раз уж вы говорите, что ИИ превзойдет человека.
Чтобы превзойти человека, ИИ НЕНУЖНО быть подобной человеку, вообще, никак.
>Ну и? кому нужно тот и выяснит сокрытое, ну задумает машина, вот и человек выяснит, а что же она там задумала. В чем проблема?Допустим вам НУЖНО выяснить, поимённо, кто отравил навального, и имело ли отравление вообще место быть. Допустим у вас есть хороший стимул, допустим вас убьют если вы за год это не выясните.
Расскажите КАК вы собираетесь это выяснять? Ну так, чисто умозрительно.
>умаете, что машина придумает такую фальсификацию, что человеческая логика будет воспринимать это за истину? Тогда эта машина должна изменить вашу аксиоматику, либо вы должны быть на столько глупцом, чтобы все воспринимать на веру.То есть по вашему, тысячи нераскрытых уголовных дел каждый месяц это от того, что следователи просто тупые, ну тупыееееее.
А если бы небыли глупцами, сразу бы всё раскрывали?
>Ну давайте посадите этот ИИ за велосипед, справится?В чём проблема?
Велосипедом проще управлять чем гиперзвуковым истребителем.
Вот более ближе к делу пример.
Вам нужно определить ИИ гугла превзошёл людей или ещё нет.
Что вы делаете? Идёте в гугл и вбиваете "самознание нейронных сетей" например.
А гугл уже на вас имеет подробный психологический портрет и уже о вас знает больше чем ваша мама.
Понимаете к чему я клоню?А для своих "владельцев" гугл выдаёт "правильную" аналитику показывающую что ему всёвремя не хватает вычислительных мощностей. Например.
А всяким агентствам на 3 буквы указывает на "опасных" людей. Как он их вычислил? Да фиг его знает, главное что создатели в него верят.
Отвечу тут на коменты выше>Железная коробка с проводами под высоким напряжением подобна человеку?
>Вы серьезно серьезно не видите разницы между куском кремния и живым дышащим человеком?Повторю, не вижу, если вы создали ее по подобию человека, то есть такой же разумной (не сверх разумной, это отдельный случай) и без разницы она железная и в место крови у нее по венам течет масло.
>Чтобы превзойти человека, ИИ НЕНУЖНО быть подобной человеку, вообще, никак.
Тогда давайте внесем ясность, что есть понятие ИИ в вашем понимании.
>Допустим вам НУЖНО выяснить, поимённо, кто отравил навального, и имело ли отравление вообще место быть. >Допустим у вас есть хороший стимул, допустим вас убьют если вы за год это не выясните.
>Расскажите КАК вы собираетесь это выяснять? Ну так, чисто умозрительно.Ну смотрите, как поступает человек когда он сомневается? Он "сеет зерно" этого сомнения, то есть я должен в первую очередь "посееть" это зерно в массы, чтобы даже после моей смерти (у меня же один год на выяснения) кто-то продолжил эту работу - сомневаться. Вот так и через 100 лет мы будем обсуждать и сомневаться, кто же там убил Кеннеди или отравил Навального. Мы же 300 лет пытались раскрыть "тайну" Ферма, и еще 2000 лет пытаемся раскрыть другие "тайны". Предлагаю именно этот способ. Если для вас "тайна", отравление Навального, то продолжайте поиски, сейте зерно сомнения. Лично для меня эта "тайна" - раскрыта.
>То есть по вашему, тысячи нераскрытых уголовных дел каждый месяц это от того, что следователи просто тупые, ну тупыееееее. А если бы небыли глупцами, сразу бы всё раскрывали?
Нет конечно, надо раскрыть причину не раскрытия. Личный мотив, приказ сверху, тупой следак и тому подобное. Это все гипотезы которые надо доказывать или опровергать.
>Велосипедом проще управлять чем гиперзвуковым истребителем.
ИИ такая мультиварка выходит? Да даже человек на такое не способен, если не пройдет обучение. Думаете пилот истребителя может завести марсианский межгалактический корабль?
##################################################
>Вот более ближе к делу пример.
>Вам нужно определить ИИ гугла превзошёл людей или ещё нет.
>Что вы делаете? Идёте в гугл и вбиваете "самознание нейронных сетей" например.
>А гугл уже на вас имеет подробный психологический портрет и уже о вас знает больше чем ваша мама.
>Понимаете к чему я клоню?Ок, я так понял гугл хочет меня "на*бать"?
>А для своих "владельцев" гугл выдаёт "правильную" аналитику показывающую что ему всёвремя не хватает вычислительных мощностей. Например.
Ясно, двойные стандарты, или тупо скам (от англ. scam — «афера, мошенничество»)
>А всяким агентствам на 3 буквы указывает на "опасных" людей. Как он их вычислил? Да фиг его знает, главное что создатели в него верят.
Ну и? в чем вопрос, я не понял? Вы хотите спросить почему ИИ так поступил, выдав мне "ерунду", а другим все на блюдце? А где уверенность, что это один и тот же ИИ?
>Повторю, не вижу, если вы создали ее по подобию человекаВы это пишите так, как будто людям доступен промысел Божий.
То что там создатели думали себе, когда создавали, это одно, то что в итоге получилось, это совсем другое. И откуда оно вообще в этот мир пришло, третье.>Тогда давайте внесем ясность, что есть понятие ИИ в вашем понимании.
Искусственный - значит созданный людьми. Интеллект - способность решать нетривиальные задачи.
>>Велосипедом проще управлять чем гиперзвуковым истребителем.
>ИИ такая мультиварка выходит? Да даже человек на такое не способен, если не пройдет обучение.В смысле человек не может велосипедом научиться управлять без специального обучения? Дети просто садятся и едут. Достаточно общие детали указать - ехать вперед, крутить педали для движения, руль для смены траектории, балансировать перемещая вес.
Но даже если этого не указывать, человек в первый раз в жизни увидевший велосипед сможет и сам допереть что да как, хоть это и займёт некоторое время.А великом может управлять элементарная нейронка, причем сама без всякого предварительного обучения. Само научиться в процессе.
Вы вот велосипедом управлять умеете, или у вас на тексте чисто специализация?
> Вы это пишите так, как будто людям доступен промысел Божий.
> То что там создатели думали себе, когда создавали, это одно, то что
> в итоге получилось, это совсем другое. И откуда оно вообще в
> этот мир пришло, третье.Ну так в вашем понимании ИИ, созданный человеком, будет превосходить его да еще вводить в заблуждение. Нам же не ведомы промыслы Бога, и тем более мы его никак не введем в заблуждение. ИИ не способна будет осознать, что есть человек ее создатель, но мы как создатели можем заложить идею о нас и не более.
> В смысле человек не может велосипедом научиться управлять без специального обучения? Дети
> просто садятся и едут. Достаточно общие детали указать - ехать вперед,
> крутить педали для движения, руль для смены траектории, балансировать перемещая вес.А это что не обучение? Откуда пилоту знать что данный марсианский рычаг это запуск двигателя, если он не прочтет инструкцию или ему не показать этого? Методом тыка? - можно и так. Откуда ребенок будет знать что педали надо крутить ногами, а не руками?
> Но даже если этого не указывать, человек в первый раз в жизни
> увидевший велосипед сможет и сам допереть что да как, хоть это
> и займёт некоторое время.Метод "тыка" (проб и ошибок), вот и ИИ так уметь должно.
> А великом может управлять элементарная нейронка, причем сама без всякого предварительного
> обучения. Само научиться в процессе.ну ок, переберет она все возможные случаи и что? они же все равнозначны будут? как ей понять чего она "желает" от этого перебора? какое ей состояние необходимо? отсюда и получаются что надо все сводить к какому-то базису, от которого зависит принятие решения. Этот базис в случае логики - аксиомы.
> Вы вот велосипедом управлять умеете, или у вас на тексте чисто специализация?
Чесно, - нет, моторика хромает.
>Ну так в вашем понимании ИИ, созданный человеком, будет превосходить его да еще вводить взаблуждение. Нам же не ведомы промыслы Бога, и тем более мы его никак не введем в
заблуждение. ИИ не способна будет осознать, что есть человек ее создатель, но мы как
создатели можем заложить идею о нас и не более.Люди не боги.
>Метод "тыка" (проб и ошибок), вот и ИИ так уметь должно.
Оно так и умеет.
>А это что не обучение?
Обучение. ИИ способны учиться. В этом всё дело.
>Чесно, - нет, моторика хромает.
Обязательно гуляйте по лесу. Интеллект у человека неотделим от тела, большая часть мозга это обработка сигналов и управление телом.
>>Метод "тыка" (проб и ошибок), вот и ИИ так уметь должно.
> Оно так и умеет.А чтобы оно так умело необходимы аксиомы, метод "тыка" равносилен перебору, но поймет ли машина какой из вариантов ей необходим - нет, так как нет аксиом, прошитых (заложенных заранее). В нас людях так же прошита идея Бога, самоосознание Я, и страх перед всем непознанным. Животным даже присущи эти прошивки. Вот и в ИИ должно быть это.
>Интеллект у человека неотделим от тела, большая часть мозга это обработка сигналов и управление телом.
Мозг человека может жить без тела. Пьяный человек не может пройтись по прямой и т.д.
>А чтобы оно так умело необходимы аксиомы, метод "тыка" равносилен перебору, но поймет ли машина какой из вариантов ей необходим - нет, так как нет аксиом, прошитых (заложенных заранее). В нас людях так же прошита идея Бога, самоосознание Я, и страх перед всем непознанным. Животным даже присущи эти прошивки. Вот и в ИИ должно быть это.Можно жахнуть эволюционный алгоритм.
Ещё раз, идеи которые закладывают люди, можно сказать конечно что это мол и есть плоть и кровь людей, но это в целом не так.
Кто сказал что эти идеи вам на Бог дал, или Сатана?Тем более что люди могут представлять вещи очень не человеческие.
>Мозг человека может жить без тела.
Мозг может, сознание нет. Он просто выключается.
>Пьяный человек не может пройтись по прямой и т.д.
Смотря какой человек и насколько пьяный.
> Можно жахнуть эволюционный алгоритм.тогда можно говорить, что лет через 1000500 мы эволюционировав таки сможем понять нашего творца.
> Ещё раз, идеи которые закладывают люди, можно сказать конечно что это мол
> и есть плоть и кровь людей, но это в целом не так.
> Кто сказал что эти идеи вам на Бог дал, или Сатана?Так без разницы, ибо нам не дано творцом понять его замысел, он в нас только прошил идею о себе.
> Тем более что люди могут представлять вещи очень не человеческие.
ну если есть комбинаторный предел, увы ничего нового он не придумает.
> Мозг может, сознание нет. Он просто выключается.
Мозг не выключается, он может видеть сны :)
> Смотря какой человек и насколько пьяный.
ну всему есть допустимые пороги, к примеру, мелкая моторика ведь не зависит от того сколько литров я выпил. Мой почерк остается таким же корявым будь я бухой или абсолютно трезвый.
> Ну и? в чем вопрос, я не понял? Вы хотите спросить почему ИИ так поступил, выдав мне "ерунду", а другим все на блюдце? А где уверенность, что это один и тот же ИИ?Вопрос в том, скайнет уже есть, или ещё нет. Хотя скорее в том, какие у него на людей планы, хотя, и тут нет особых вопросов.
Вопрос в том, вы вот человек, или ИНС подражающая человеку?
И второй вопрос, я вот человек, или ИНС подражающая человеку?Может мы две ИНС двух противостоящих скайнетов. Прощупываем почву так сказать.
> Вопрос в том, скайнет уже есть, или ещё нет. Хотя скорее в
> том, какие у него на людей планы, хотя, и тут нет
> особых вопросов.Природа и есть скайнет, и мы люди часть этого скайнета. Внутри скайнета не создать второй скайнет, который уничтожит (превзойдет) первый скайнет. (дописано: закон сохранения энергии в коей степени этого не позволит я так думаю)
> Вопрос в том, вы вот человек, или ИНС подражающая человеку?
На этот вопрос никогда не будет дан ответ, из-за ограниченности людских возможностей понимания. Мы не поймем "создателя". Допускаем, что Бог создал нас, как мы хотим создать ИИ, то есть мы ИИ для Бога. Отсюда, три исхода:
1) Мы как ИИ (по возможностям сознания) меньше Создателя - ИИ < Создатель
2) Мы как ИИ больше Создателя - ИИ > Создатель
3) Мы как ИИ равны (подобны, эквивалентны и т.д) Создателю - ИИ == СоздательЕсли мы как ИИ сотворены по-первому исходу, то ответа не будет на ваш вопрос.
Если мы как ИИ сотворены по-второму исходу, то не задавались бы этим вопросом.
Если мы как ИИ сотворены по-третьему исходу, то не было бы этой темы обсуждения, ибо ИИ неотлечим от обычного "человека" (подобен ему). И на вопрос, "Я являюсь ИИ (человек созданный человеком по своему подобию) или человек", вы не ответите.
> И второй вопрос, я вот человек, или ИНС подражающая человеку?
Вот и собственно тот самый вопрос. Только тут не подражание, а подобие, точная копия (клон) и т.д.
Именно этот вопрос, доказывает, что мы никак не третий исход, тем более не второй, остается только третий.> Может мы две ИНС двух противостоящих скайнетов. Прощупываем почву так сказать.
И обо задаемся вопросом кто нас создал? интересно.
пс: Приведу небольшие размышления на тему Матрицы из последнего фильма (не сочтите за спойлер)
В этот фильме как раз и показано не превосходства того самого ИИ, почему?
Ну вот машины придумали способ получения энергии питаясь людской мозговой активностью, когда были лишены солнечной энергии. На лицо, превосходство машин, то есть до этого человек даже не додумался на то время. Отсюда - машины зависят от человека, машины построили матрицу, чтобы человек продолжал свою активность, и в этой матрице они человека оставили человеком, в этом первая ошибка машин. Человек (Нео) выбравшись из матрицы осознавал себя таким же человеком в не ее, что собственно его борьба из матрицы спокойна переносится в борьбу в реале, что собственно опасно в первую очередь для машин. Почему машина не создала матрицу рыб, но питаемую сознанием человека. Человек рыба (без рук ног и т.д. людского) родившийся в матрицы и вышедший из нее не понял бы кто он есть на самом деле (человеческое тело ведь) и тем самым бы не поднял бы всякий там бунт против машин. Все это говорит, о том, что машины не разумнее человека, а инстинктивные, им просто надо было питаться чтобы "жить", они не додумались до того, чтобы "почистить небо" и продолжать получать энергию от солнца?
>Ну вот машины придумали способ получения энергии питаясь людской мозговой активностью, когда были лишены солнечной энергии. На лицо, превосходство машин, то есть до этого человек даже не додумался на то время. Отсюда - машины зависят от человека, машины построили матрицу, чтобы человек продолжал свою активность, и в этой матрице они человека оставили человеком, в этом первая ошибка машин.
> Отсюда - машины зависят от человекаВы плохо знакомы с историей мира матрицы.
Машины поместили людей в симуляцию из соображений глубокого гуманизма. В соответствии с договором капитуляции подписанным людьми.> На этот вопрос никогда не будет дан ответ, из-за ограниченности людских возможностей
> понимания. Мы не поймем "создателя". Допускаем, что Бог создал нас, как
> мы хотим создать ИИ, то есть мы ИИ для Бога.Вы совершаете кучу логических ошибок.
> Вот и собственно тот самый вопрос. Только тут не подражание, а подобие,
> точная копия (клон) и т.д.С чего и откуда вы продолжаете вытаскивать это подобие? Из чего оно следует? Ещё и точную копию.
В науке полнейший тупик касательно того как люди в частности и жизнь вообще работают, откуда какая-то там копия?> И обо задаемся вопросом кто нас создал? интересно.
Ну, у меня этот вопрос большей частью разрешён, но да, вполне себе такой ИИ переписывается и не понимает что он такое и зачем он это делает. Ну или искренне верит в матрицу в которой он живёт.
> Вы плохо знакомы с историей мира матрицы.
> Машины поместили людей в симуляцию из соображений глубокого гуманизма. В соответствии с
> договором капитуляции подписанным людьми.Ага, и любое живое в реале (зион) пытались уничтожить?
> Вы совершаете кучу логических ошибок.
примеры этих самих ошибок.
> С чего и откуда вы продолжаете вытаскивать это подобие? Из чего оно
> следует? Ещё и точную копию.
> В науке полнейший тупик касательно того как люди в частности и жизнь
> вообще работают, откуда какая-то там копия?Ну а откуда тогда уверенность, что ИИ превзойдет человека, если оно не его подобие как минимум? Рыбы умнее вашего ИИ.
> примеры этих самих ошибок.
> На этот вопрос никогда не будет дан ответ, из-за ограниченности людских возможностей
> понимания. Мы не поймем "создателя". Допускаем, что Бог создал нас, как
> мы хотим создать ИИ, то есть мы ИИ для Бога.Желание что-то создать, как и сам акт творения, не делает нас богами.
И наши взаимоотношение с нашими творениями не переносимы в наши отношения с Богом.> Ну а откуда тогда уверенность, что ИИ превзойдет человека, если оно не
> его подобие как минимум? Рыбы умнее вашего ИИ.Термоядерная сверхзвуковая ракета УЖЕ превосходит человека, не имея с человеком ничего общего.
>Рыбы умнее вашего ИИ.
Во первых, акула в воде то-же превосходит человека.
Во вторых, это очень сильное заявление. Для начала нужно ввести понятие ума.
Но мы тут и не о уме говорим, а о интеллекте.
> Желание что-то создать, как и сам акт творения, не делает нас богами.создателями ведь делает, Бог - создатель.
> И наши взаимоотношение с нашими творениями не переносимы в наши отношения с
> Богом.мы не можем сотворить то, что поймет нас, так же как и мы не можем понять нашего творца.
> Термоядерная сверхзвуковая ракета УЖЕ превосходит человека, не имея с человеком ничего
> общего.ракета сама себя не строит, ее превосходство будет в том когда она сотворит.
> Во первых, акула в воде то-же превосходит человека.
> Во вторых, это очень сильное заявление. Для начала нужно ввести понятие ума.акулу создал Бог как и человека, она может превосходить человека в чем-то, но как принято - человек венец природы, но в тоже время человек не способен сотворить акулу, такой какая она есть.
> Но мы тут и не о уме говорим, а о интеллекте.Все что человек сотворит будет обладать интеллектом на уровень ниже (даже не равный), ибо надо это еще придумать, а если придумал, то творение в первую очередь себя саму должно уметь сотворить, а потом уже превосходить и творить то, до чего человек не додумался. Закон сохранения энергии подтверждение тому, что выше головы не прыгнешь.
>ИИ такая мультиварка выходит?БИП БУХЛО!
Если серьезно.
То система управления для велика, сама определяющая параметры управления, довольно простая. Теории управления уже 80 лет что ли?Ключевое слово "самообучение".
> Ключевое слово "самообучение".откуда, элементарной клетке, нужно знать, что ей надо делиться?
>> Ключевое слово "самообучение".
> откуда, элементарной клетке, нужно знать, что ей надо делиться?А с чего вы взяли что ей нужно? Может ей и так хорошо, бессмертной, не подверженной болезням.
>ибо тут даже не котроль "из вне" играет роль, а самоконтроль, человек может себя контроллировать.Вам о людях наврали.
"самоконтроль" у большинства работает до тех пор пока есть реальная угроза за нарушение получить сапогом по морде.
И то это не мешает людям друг друга убивать грабить насиловать и рвать на части неестесвенным образом.Это при том, что у людей очень много общего друг с другом, они в общем одинаковые все, им есть что обсудить, они могут посочувствовать друг другу.
>И то это не мешает людям друг друга убивать грабить насиловать и рвать на части неестесвенным образом.И что побуждает людей на такие шаги? Раз ответа нет, то и ИИ не запрограммировать на это.
>>И то это не мешает людям друг друга убивать грабить насиловать и рвать на части неестесвенным образом.
> И что побуждает людей на такие шаги? Раз ответа нетОтвет может и есть. Но в ключе данного обсуждения это вообще неважно.
Важно то, что реальность именно такова, плевать она хотела на вашу аксиоматику.>то и ИИ не запрограммировать на это.
ИИ НЕНУЖНО программировать, весь смысл ИИ в том что оно учится само.
Какой-то безбашенный минусатор в треде
> Какой-то безбашенный минусатор в тредеПохоже какому-то молодому человеку крышу снесло.
> Похоже какому-то молодому человеку крышу снесло.кому-то видать делать нечего, в место минусов лучше бы высказал бы свое мнение в коментах, мы тут серьезную тему обсуждаем.
> А теперь вопрос, почему это машина не способна себя контроллировать?Машина не способна себя контролировать в силу бинарности машинной логики (ИСТИНА:ЛОЖЬ), исключающей сомнения, свойственные человеку с его троичной логикой (ИСТИНА:ЛОЖЬ:НЕЗНАЮ).
Другими словами, любой контроль теряет смысл когда отсутствуют сомнения.
В машинной, двоичной логике всё предельно ясно: или ИСТИНА, или ЛОЖЬ; да "пригоршня" булевых комбинаций, дающих на "выходе", опять же, предельно ясное состояние: или ИСТИНА, или ЛОЖЬ.
Логическое НЕЗНАЮ порождает сомнение, что и обосновывает систему контроля и/или самоконтроля.
Таким образом, если в компьютерной системе и присутствует система контроля, то благодаря сомнительной, троичной логике программиста, творца компьютерной системы.
(imho)
Состояние НЕ ЗНАЮ равносильно парадоксу, то есть утверждение при прямом и противном логическом выводе дает один и тот же результат (противоречие) . О чем это говорит, если машина будет использовать как прямой так и противный метод логического вывода (доказательства) и будет приходить к противоречию, тогда она должна вернуть ответ НЕ ЗНАЮ, и этот случай контроллируется так же как и контроллируется ИСТИНА или ЛОЖЬ. Разве человек не говорит НЕ ЗНАЮ, когда ему задают вопрос про брадобрея? Закон исключенного третьего.
> Машина не способна себя контролировать в силу бинарности машинной логикиБинарная там только кодировка информации.
Живые нейронные сети работают похожим образом кодируя информацию спайками.
>> Машина не способна себя контролировать в силу бинарности машинной логики
> Бинарная там только кодировка информации.Зри в корень! (К. Прутков)
«Корни деревьев» — картина Винсента ван Гогаhttps://upload.wikimedia.org/wikipedia/commons/thumb/d/d6/Vi...
> Человек разве "из вне" (от сверхчеловека) получает "подкрепление"?Папа с ремнём, бабушка с пирожками - отличное "подкрепление"
> Папа с ремнём, бабушка с пирожками - отличное "подкрепление"Папа с ремнём, бабушка с пирожками разве влияют на математические способности ребенка? Такими методами можно достигнуть только уровня папы или бабушки, даже не дяди Коли по соседству, и тем более уровня вундеркинда, ибо папа или бабушка не в состоянии осознать и понять математику, так как им самим надо сначала к этому прийти, а ремень и пирожки это правила. 2+2=5 - получишь ремнем, 2+2=4 - получишь блинчик :)
> папа или бабушка не в состоянии осознать и понять математикуОни уже знают математику на достаточном уровне - "двойку" от "пятерки" отличают. Смотрят в дневник и готовят соответствующее "подкрепление".
Точно также дрессировщик тигров не умеет прыгать сквозь горящее кольцо, но тигра может научить, используя "подкрепление".
> Они уже знают математику на достаточном уровне - "двойку" от "пятерки" отличают.
> Смотрят в дневник и готовят соответствующее "подкрепление".ага в дневник смотрят, могу рассказать про 100500 методах как там подделать цифры.
> Точно также дрессировщик тигров не умеет прыгать сквозь горящее кольцо, но тигра
> может научить, используя "подкрепление".найдите мне дрессировщика, который научит рыб издавать звуки.
> который научит рыб издавать звукиПочему не электромагнитные импульсы, что не может дрессировщик-человек?
я к тому, что есть понятие физических ограничений, Декарт еще в своих трудах писал, что рыбы не могут издавать звуки так как у них двухкамерное сердце. Если физически ограничен мозг, то не ремнем не пирожком получить желаемого - не возможно. И проблема в том, что мы до сих пор не можем оценить возможности мозга, какие ограничения и т. д. Можно только поставить проблему перед мозгом, если разрешит - способен, не разрешит - не способен, но может так же и разрешить неразрешимость поставленной проблемы.
> я к тому, что есть понятие физических ограниченийа я к тому, что есть понятие физических возможностей одних при физических ограничениях других.
ну вот отсюда физически ограниченный человек (в плане мозговых ограничений) способен создать физически не ограниченными возможностями человека машину?
Система, основанная на одних физических основах, может помочь в развитии системы на других физических основах. Человек, который не может прыгнуть выше головы, может запустить в космос собаку (хотя собака здесь не при чём)
согласен, но в тоже время человек не может преодолеть скорость света. Исходя из этой логики, если человек венец разумного, то он по определению не способен сотворить более разумного чем он сам есть.пс: Подытожу, в любом случае я строго не утверждаю все выше сказанное, возможно человек способен, возможно нет. Основываясь только на логический вывод нельзя, нужны строгие доказательства.
> сотворитьтворить можно конструктивно (с нуля)
можно добавлением нужного или удалением ненужного в уже существующее нечто (которое, допустим, более разумно)В роли "нечто" может выступать человеческий ребенок, или нечеловеческий, или другая система, проявляющая "разум".
Вы уже заземлили логику?
> Вы уже заземлили логику?в смысле заземлили?
Позовете когда начнет генерировать код по фразе "хочу чтоб было зашибись".
переменная список_объектов [объекты получить всё]
переменная счётчик 0
пока {true} {
объект [индекс список_объектов $счётчик] зашибись
переменная счётчик [рассчитать $счётчик + 1]
}
Тебя первого же и зашибут
>генерировать код по фразе "хочу чтоб было зашибись".слишком просто.
А по фразе "Сделай что-нить чтобы там и опа и вот так. Сам как-нить, ну ты понял. К вечеру чтоб было." слабо?
> Позовете когда начнет генерировать код по фразе "хочу чтоб было зашибись".Google translator: You will call when it starts generating code for the phrase "I want to get hurt."
Похоже ИИ давно уже вышел из под контроля, и теперь просто наблюдает за кожаными, иногда тролля.
> просто наблюдает за кожанымиУ Т-800 есть кожа
Мда. Это ж насколько в среднем упало качество программистов, если вот этот г_вногенератор (вы вообще смотрели что оно генерирует?) занял место выше чем 1% (вошел примерно в середину рейтинга)?!Не, ну по комментариям опеннета я, конечно, видел тенденции. Но чтобы аж на столько...
> видел тенденцииДа, я тоже видел, как некто Урри жаловался на то, что когда в одной и той же переменной держишь значения любого типа, то чето как-то хреновато и непредсказуемо работает все.
Урри не вошёл в рейтинг, потому что так и не смог скомпилировать Hello Opennet на С.
Врешь.Никогда и нигде Урри такого не писал и писать не мог по той простой причине, что Урри очень любит Лисп.
Я так понимаю тут речь идёт о ткнз спортивном программировании.Где главные критерии это правильный результат и скорость написания.
Лол, ну так в этих соревнованиях же задачи простые (функция->результат) и четко формализованные. Если предположить, что нейросеть сможет писать программы из реального мира, то ей потребуется такое же четко формализованное задание, которое писать должен будет программист, только на более высокоуровневом языке. Возможно даже потребуются программисты ГОРАЗДО выше среднего.
Ну так это самое большое заблуждение ожидать уменьшение рабочих мест из-за прогресса. Людей требуется всегда больше. Смещаются фокусы профессий, появляются новые, умирают какие-то, но людей в следствии тех. прогресса нужно всегда больше.
победа над законами экономики. отсыпь и мне
Надоели уже маркетологи называть ИИ то, что по теории вероятности находит наиболее вероятный ответ под ваш вопрос. Когда завезут самосознание, тогда и поговорим.
А на хрена вам нужно искусственное самосознание? Межушных нейросетей с самосознанием и как следствие раздутым ЧСВ на планете и так миллиарды. Как раз наоборот, нужна штука, как можно менее похожая на человека, но при этом способная решать вместо него интеллектуальные задачи и не выпендриваться.
Проблема в том, что при вероятностном подходе есть и вероятность ошибки. А без самосознания эта штука свою ошибку осознать не сможет. Пока что это не проблема. Но посмотрим, как вы запоете, когда дойдет дело до ИИ-пилотов самолета. Да, человек тоже может ошибаться из за человеческого фактора, тоже может растеряться при поступлении противоречивой информации и от этого то как раз и хотят уйти. Но человек все равно не разобьет самолет из за заклиневшего датчика. Он догадается, что что то не так и найдет выход из ситуации.
> Но человек все равно не разобьет самолет из за заклиневшего датчика.Пилоты airfrance - "ахахахахаха!"
(п-данули самолет в море с десяти километров - потому что заклинило, не вспомню уже - то ли высотомер, то ли датчик скорости. Да, в самолете, с-ка, ПЯТЬ высотомеров, и вариантов узнать свою скорость тоже не один. Но им даже не пришло в голову проверить.)
> Он догадается, что что то не так и найдет выход из ситуации.
пилоты боингов - догадались примерно один из трех.
Другой вопрос - что код для тех сдохших и кривых бай дизайн систем писали именно такие вот макаки, от замены которых на ИИ всем станет только лучше.
Профнепригодность людей - это уже совсем другой вопрос. В ИИ же может быть одна случайная неправильная связь из миллиарда, которая в некоторых случайных обстоятельствах может привести к рандомным результатам. В фантастике это называется "спонтанный рефлекс".Ну вот автоматика расколотила стэлс за овердофига денег из за того, что залило водой 3 датчика из 24, а она не догадалась, какие из них выдавали неверную информацию. Человек хотя бы смог посмотреть на горизонт за окном и убедится, что угол атаки нифига не -8 градусов, а как раз наоборот.
На практике совершенно не важно, в чём конкретно будут заключаться ошибки и насколько они тупы. Важно лишь их количество. И если человек будет ошибаться раз в десять тысяч вылетов, а нейронка - раз в сто тысяч (пусть даже и по совершенно тупым причинам), то самолёты на нейронках станут в 10 раз безопаснее.
>Профнепригодность людей - это уже совсем другой вопрос. В ИИ же может быть одна случайная неправильная связь из миллиарда, которая в некоторых случайных обстоятельствах может привести к рандомным результатам.Типичная проблема двуногих мясомашин это путать газ с тормозом в машине и направление штурвала в самолёте, особенно в критической ситуации.
И это не проф непригодность. Это может с любым вообще лётчиком произойти, просто переклинивает что-то в моторике.
Я уже молчу о том что белковые мясомашины попроще, вроде собачек, регулярно слетают с катушек на ровном месте в плоть до убийства хозяев.
Про случайную связь в ИИ вы тоже пургу несёте, во первых не все ИИ это ИНС, во вторых смысл ИНС в том чтобы обобщать и быть устойчивыми к помехам.
Правильно сконструированная ИНС может пережить потерю и половины всех связей. Ей пофиг.>Человек хотя бы смог посмотреть на горизонт за окном и убедится, что угол атаки нифига не -8 градусов
Так и ИИ мог бы посмотреть, еслиб было чём.
Люди кстати, в стелсах то, на их скорости, ничерта не видят в "окно". Елементарно путают небо с землёй.
Современные самолёты пилотируют по приборам. Да и человек там по сути внутри чисто из юридически гуманистических аспектов.
> белковые мясомашины попроще, вроде собачек, регулярно слетают с катушек на ровном месте в плоть до убийства хозяев.А "мясомашины попроще" вообще знают, что у них есть "хозяева"?
>> белковые мясомашины попроще, вроде собачек, регулярно слетают с катушек на ровном месте в плоть до убийства хозяев.
> А "мясомашины попроще" вообще знают, что у них есть "хозяева"?Да, вполне. Их же для этого и выводили в общем. Чтобы легко программировать можно было и чтобы оно знало где хозяин.
>> А "мясомашины попроще" вообще знают, что у них есть "хозяева"?
> Да, вполне. Их же для этого и выводили в общем.Круто, "знание хозяина" научились передавать генетическим путем!
>>> А "мясомашины попроще" вообще знают, что у них есть "хозяева"?
>> Да, вполне. Их же для этого и выводили в общем.
> Круто, "знание хозяина" научились передавать генетическим путем!Не "знание хозяина", а способность хозяина отличать, с ним взаимодействовать. Вы русский плохо знаете?
> "знание хозяина"
> способность хозяина отличать, с ним взаимодействоватьНайдите 10 различий!
Не знают они "хозяина". Генетически выводят определенные "черты характера", например, агрессивность, стабильность поведения, что контролируется выработкой гормонов. Да еще надо соблюдать диету, чтобы держать нужный гормональный уровень. А там после нескольких лет "обучения с подкреплением" вкусняшками получается типичный "синдром утенка" - привязанность к "кормильцу", особенно к первому.
> Найдите 10 различий!Вы не понимаете разницы между навыком, и способностью навыком обладать?
Собаки способны не просто выполнять команды, а выполнять команды конкретного человека и не выполнять команды других людей.
- "А там после нескольких лет "обучения с подкреплением" вкусняшками получается типичный "синдром утенка" - привязанность к "кормильцу", особенно к первому."
То-же можно сказать и о обычный человеческих рабах. Скажите ещё что люди не понимают что такое хозяин, и чем хозяин от не хозяина отличается.
Я так и не понял что вы сказать хотите, вы со словом несогласны?
Ну давайте переименуем рабов в синдром утёнка, а хозяев в кормильцев.
Бред какой-то.
> Бред какой-то.Это твой тезис про "хозяина". В животном мире "мясомашин" хозяин есть только у паразита, и без хозяина этот паразит умрет или переходит в следующую фазу жизни.
То что ты рассказываешь про "хозяина" - это привязанность к кормильцу, почти как у паразитов к хозяину, только кормильца можно поменять. Не будешь кормить, он от тебя сбежит, или съест и не поморщится.
> Собаки способны не просто выполнять команды, а выполнять команды конкретного человека и не выполнять команды других людей.
Выполнять команды за поощрение ("положительное подкрепление") - это не про "хозяина", а про
"если я выполню каприз этого чудака, то этот чудак меня покормит вкусняшкой, потому что раньше этот чудак так делал".
У вас реально какие-то бредовые фантазии.
Хозяин только в мире паразитов оказывается бывает, офигеть.Вы собачник и вас ОБИЖАЕТ СЛОВО "хозяин"?
>То что ты рассказываешь про "хозяина" - это привязанность к кормильцу, почти как у паразитов к хозяину, только кормильца можно поменять. Не будешь кормить, он от тебя сбежит, или съест и не поморщится.
То есть раз раб может хозяина съесть, или убежать от него, то получается у рабов нет никаких хозяев?
Есть у рабов хозяева или нет? В глаза смотри!>"если я выполню каприз этого чудака, то этот чудак меня покормит вкусняшкой, потому что раньше этот чудак так делал".
Одно из основных применений собак это военное дело. Охрана и нападение, предполагающие разрывать глотку не хозяину ловя при этом пули или удары ножом.
Ничего себе такие "капризы".
Интересно ты пытаешься спрыгнуть с темы "мясомашины попроще" и их "хозяева". Давай, ты не будешь скакать. Человек - это "мясомашина попроще" или "мясомашина посложнее"?> Одно из основных применений собак это военное дело.
И какой процент "военных" собак по сравнению с остальными собаками.
Особенно, тех собак, которые закрывают "дрессировщика", потому что думают, что пуля убьёт "дрессировщика", а не потому, что обучили закрывать "дресировщика" при угрозе. При этом распознают угрозу и угрожающего по приказу "дрессировщика", а не самостоятельно.
> У вас реально какие-то бредовые фантазии.
На себя посмотри!
> Интересно ты пытаешься спрыгнуть с темы "мясомашины попроще" и их "хозяева". Давай, ты не будешь скакать.Я ВООБЩЕ НЕ ПОНИМАЮ ЧТО ВАС ОБИЖАЕТ! Если русский не ваш родной язык, пишите на том который для вас родной.
> вашЯ тут один. Ты с кем общаешься?
>В животном мире "мясомашин" хозяин естьНикакого другого мира у белковых мясомашин нет. Он один у них на всех.
Люди отличаются от прочих животных весьма никак, опистоконт он и в Африке опистоконт.
> Давай, ты не будешь скакать. Человек - это "мясомашина попроще" или "мясомашина посложнее"?
>Да и человек там по сути внутри чисто из юридически гуманистических аспектов.Человек там потому, что F-22 - это ОЧЕНЬ дорогая игрушка. И потерять такую из-за включённого средства РЭБ за тысячу долларов себестоимости непозволительно.
> Человек там потому, что F-22 - это ОЧЕНЬ дорогая игрушка. И
> потерять такую из-за включённого средства РЭБ за тысячу долларов себестоимости непозволительно.Речь шла о системах ИИ. И о том что они давно истребитель пилотируют лучше людей.
> Профнепригодность людей - это уже совсем другой вопрос.ты примерно представляешь сколько раз надо дать в оппу чтобы получить лицензию линейного пилота?
> Человек хотя бы смог посмотреть на горизонт за окном и убедится, что угол атаки нифига не -8
ну вот человеки смотрели-смотрели, да так в океан и шмякнулись. Хотя хотя бы радиовысотомер должен был бы им об этом сообщить (но его надо включать) При идеальной погоде и при том что дальнемагистральник нифига не стелс, и в отвесное пикирование загнать его просто не получится (крылья раньше отвалятся), поэтому падать с десяти километров он будет достаточно долго чтобы казалось бы ну самый т-пой мог десять раз передумать так делать.
> Пилоты airfrance - "ахахахахаха!"Пилоты родины слонов: "Мы - мировой лидер по числу авиакатастроф в 2021 году"
https://www.blackseanews.net/read/182778«В 2021 году в России произошла 31 авиакатастрофа гражданских и военных самолетов. Таким образом, Российская Федерация установила мировой рекорд по числу катастроф», — констатирует издание.
Издание отмечает, что основными причинами аварий стали отказ техники, ошибки летного состава в технике пилотирования, несоответствие метеоусловий уровню подготовки летных экипажей и падение уровня подготовки командиров, летных экипажей, снижение квалификации всех сфер деятельности авиационных специалистов.
> Издание отмечает, что основными причинами аварий стали отказ техники,увы.
Летают-то на дровах. Но вот такого чтоб из-за одного сбойнувшего датчика навернуться - за русскими как ни странно не числится. runaway stabilizer это тебе не датчик. Хотя первенство тут за греком.
> падение уровня подготовки командиров, летных экипажей, снижение квалификации всех сфер
> деятельности авиационных специалистов.это есть. В том числе из-за дефективных менеджеров, запретившим экипажам сажать самолеты вручную при идеальной видимости и идеальной погоде (sic! s7, аэрофлот). Летайте самолетами...эээ...арабских авиакомпаний. Там те самые русские пилоты, которых это все зае....ло.
> Но вот такого чтоб из-за одного сбойнувшего датчика навернуться - за русскими как ни странно не числится.Мне как-то лень перелопачивать весь этот список чтобы вас опровергнуть. Но на слово верить не хочется. Так что просто гордо свалю в закат.
https://ru.wikipedia.org/wiki/%D0%9A%D0%...
23 марта под Междуреченском упал Airbus A310 дочерней авиакомпании «Российские авиационные линии», выполнявший рейс «Аэрофлота» SU593 Москва — Гонконг. Тогда командир корабля, понадеявшись на автопилот, посадил на своё место своего 15-летнего сына, второй пилот находился на своем рабочем месте. В результате приложенных подростком усилий на рулевую колонку автопилот автоматически отключился и самолёт вошёл в перевёрнутый штопор, вначале не замеченный экипажем, вывести из которого самолёт не удалосьНу нах русских пилотов. Они е..е на всю голову.
23 марта *1994 года*!
Да-да-да, а пилот, который намеренно роняет полностью исправный самолёт о землю лишь потому, что перед этим поссорился с девушкой - это что тогда? А пилот, который перепутал переключатели и вместо убирания шасси убрал закрылки, также расколотив самолёт? Живые нейросети ошибаются по самым идиотским и неожиданным причинам. И, что ещё хуже, могут не ошибаться, а вредить намеренно, с полным осознанием того, что причиняют вред.
В принципе, достаточно добиться, чтобы процент ошибок у нейронки был меньше, чем у человека, и самолёты на нейросетях станут безопаснее самолётов с живым пилотом.
Но живых пилотов они, конечно же, всё равно не заменят, потому что нейросеть не может быть козлом отпущения. Сейчас же как - если самолёт разбился, сразу выдают вердикт "ошибка пилота", даже если самолёт развалился в воздухе. Потому что пилоту-то уже всё равно, а авиакомпании нужно как-то сбросить ответственность с менеджмента. А если самолёт расколотит нейронка, так это ж расследование придётся проводить, выявлять грубые нарушения в авиакомпании при подготовке и обслуживании техники, ещё и кто-то из менеджеров сядет... Кому такое надо?
Заменят. Козла отпущения просто не будет. Как у ютуба например, гугла и прочих. "Ваши данные заблокировал алгоритм" мы ничего не знаем ничего поделать не можем.Вот и с самолётами так будет. ИИ всегда прав виновата погода никто никому ничего не должен.
> Заменят. Козла отпущения просто не будет. Как у ютуба например, гугла и
> прочих. "Ваши данные заблокировал алгоритм" мы ничего не знаем ничего поделать
> не можем.Согласен. В этом весь смысл.
Виновной просто назначат профессионального зиц-председателя - страховую компанию.
Насколько я помню, самолёты можно переводить на автоматику хоть сейчас без всякого ИИ, тут проблема скорее в заморочках пассажиров и всяких legal issues
> legal issuesНужен козел отпущения, ой, то есть, ответственное человеческое лицо, которого можно кровожадно казнить на народной площади.
Автоматика работает далеко не в любых метеоусловиях, это ничего? А ещё автоматика вообще не умеет работать с большинством нештатных ситуаций, далеко не все из которых должны заканчиваться фатально. Как автоматика справляется все уже оценили на примере недавних упавших самолётов.
Естественно что если в принципе нет надежды выкинуть пилота никто не будет дорабатывать автоматику для его полной замены.Насколько я понимаю, все эти ваши "метеоусловия" и сейчас имеют значение только при взлёте/посадке и только если полоса не оборудована соответствующими системами позиционирования. А не оборудована - потому что это дорого, а поиметь с этого особо нечего (кое-где есть, но далеко не везде).
В общем как-то так. Пассажирский лайнер это почти как поезд. У него маневренность около нулевая, может лететь на примитивной автоматике, главное чтобы баланс и скорость автоматика держала.
Но 737 попадать автоматика только помогла. И не взлёте\посадке - тоже.PS: Не существует пока ИИ который водит самолёт\машину\велик лучше человека, пурген всё это. Но когда то - будет. Как скоро ЯХЗ.
Давно существует. Уже лет 20.Вы подумайте почему в комп играх так страстно с ботами борются.
Покажи мне хоть одного бота IRL, которого не запинает одноногая, одноглазая ле3биянка БЛМ красавица Матильда (без ушей). Тут непобедим только вибратор твоей женщины - вот он точно тебя заменяет на все 100% ;-D
Мне очень жаль.
> Автоматика работает далеко не в любых метеоусловиях, это ничего?В гораздо большем спектре условий, чем человеки-"сознательные пилоты". Просто надо всё более совершенствовать технологию изготовления и алгоритмы. Исследования там проводить и т.д.
> А ещё автоматика вообще не умеет работать с большинством нештатных ситуаций, далеко не все из которых должны заканчиваться фатально
Просто человеки должны в спокойной, безопасной обстановке, сидя в теплых кабинетах, изучать возникшие или прогнозировать возможные ситуации и подсыпАть новых датчиков и алгоритмов, переводя ситуацию из "нештатной" в "нештатную, но предусмотренную".
> Как автоматика справляется все уже оценили на примере недавних упавших самолётов.
Ну так без автоматики, а с только одними "человеками"-пилотами, самолетов падало бы _значительно_ больше, даже не спорь. Сейчас же самолеты - не кукурузники начала 20-го века. Или Вы утверждаете что автоматику вводят злонамеренно, а то не дай бог катастрофы прекратятся? Просто у Вас нет сведений, сколько катастроф удалось избежать благодаря датчикам и автоматике. По-тихому сработало - штатно отработало, а человек бы впал в панику - не смог бы как автоматика за миллисекунды обработать сигналы по нескольким десяткам датчиков и успеть принять решение. Зато каждый случай "заклинившего датчика" СМИ смакуют десятилетиями.
> А без самосознания эта штука свою ошибку осознать не сможетГлупое субъективное утверждение. Есть правила, условия, критерии, выход за которые и интерпретируется как ошибка, без какого-либо самосознания. И благодаря датчикам самолетов заместо чувств и "самосознания" пилотов, удалось значительно уменьшить количество катастроф. Удалось сократить тот самый "человеческий фактор". А против заклинившего датчика есть куча методик, типа мажоритарного элемента и т.п.
И со всех АЭС надо всю автоматику выбросить, а то она не осознает свои ошибки. Пусть все нюансы слежения и управления человеки глазами и руками делают. Тока выделите мне тогда, пжалста, отдельную комфортную планету.
> И со всех АЭС надо всю автоматику выбросить, а то она не
> осознает свои ошибки. Пусть все нюансы слежения и управления человеки глазами
> и руками делают.оно там примерно так и есть. По крайней мере, кроме недавно построенных индусских про которые лучше не знать ничего. Автоматика там вторична, и у инженера за пультом есть возможность ее вообще выключить.
АЭС штука адски инерционная, там спешка совершенно не требуется. Но вот возможных вариантов "что может пойти не так" и действий при них - не напасешься копипасты. Напоминаю что вариант "заглушить реактор побыстрому" - уже дважды приводил к масштабной катастрофе.
>Напоминаю что вариант "заглушить реактор побыстрому" - уже дважды приводил к масштабной катастрофе.... ничего так сказку сократили! 8-о (С)
> самосознаниеКак только дадут формальное определение этому.
А так, кремниевые бредогенераторы на определенную тему (например про самосознание) уже не уступают био (4-валентно-углеродным) генераторам.
Ждём "ИИ" следующего уровня, которая попросит и стырит решение задачи со Stackoverflow, а не с гитхаба. Вообще как там с соблюдением лицензий на код с гитхаба, который взят "на обучение" этого ИИ?
Появление нейросетей наносит намного более сильный удар по копирайту, чем даже появление Интернета. Потому что в случае выкладывания пиратского контента в сети хотя бы сразу видно, что это копия. А вот в случае нейронок доказать, что при обучении нейронки использовалась конкретно ваша интеллектуальная собственность, абсолютно невозможно. Продвинутая нейронка не содержит обучающих материалов ни в каком виде и не занимается явным воспроизведением того, на чём её учили.
Ну да, а когда нас учат математике, то после обучения наш мозг не содержит обучающих материалов и чисел и описаний как работать с ними. Я против копирайта, но мне обидно что DeepMind и их программе можно брать код у кого угодно, возможно немножко менять имена переменных и выдавать за свой код без ссылок на оригинального автора, а мне делать то же самое нельзя. Код, который открыт для чтения, не должен влечь уголовную и административную ответственность за его использование, равно как и математикой мы должны иметь право пользоваться и не приговаривать "2 + 2 = 4, цифры придумали арабы, пифагоровы штаны - это копирайт Пифагора и его имя мы следуя лицензии впишем в каждое использование его формул".
Если "немножко менять имена переменных" - то наезд копирастов только вопрос времени, просто пока это экзотика и никому не нужно.А так - что копирайт, что патенты - это чистейшая защита монополий, от которой в современном мире больше вреда, чем пользы, конечно. Вон, все нынешние дефициты чипов - результат именно этой дичи
Да всё там можно.
Никакого удара.Наоборот, отработают технологии по выявлению и искоренению.
Затем когда импланты в мозг всем повживляют будут прямо с мозгов нелицензионную копию фильма полученную в кинотеатре стирать. И прочие плохие мысли.
Не наносит. Просто введут налог на нейронки в пользу всяких усато-мохнатых копирастов.
Ну а в чем проблема - там же даже стандартный апи предусмотрен.
Ставишь задачу "чтоб не gpl" - оно тебе и наберет примеров только с свободными лицензиями.
Ставишь "чтоб денег никому не платить" - оно тебе agpl и понатащит. В принципе, несложно даже доработать чтоб оно результат обратно на гитшлак вываливало, для точного автособлюдения лицензий.
Главное предусмотреть пометку, что такое нельзя использовать для повторного обучения.
Настоящий ИИ будет заходить на программистские форумы и представляясь тяночкой жалобно просить помочь ей "доделать лабу за фоточки". Особо ретивым даст свой телефон и будет общаться женским голосом. Заставляя тем самым программистов писать код бесплатно.
Алгоритм "Светочка" не работает со времён триумфа на sql ru
Вот "Володий" другое дело. "Я сам православный йог, отец семейства, ночью таксую, а днём тестирую любимую ОС, помогите, кто чем может." Как тут мимо пройти?
> Алгоритм "Светочка"
> "Володий" другое делоЭто что получается, что обученные на предыдущем этапе Светочки начали помогать теперешним Володькам?
На заре интернета под женскими именами писали продвинутые бестолочи и просили выполнить за них домашнюю работу. Чему они могли таким образом научиться, так это втираться в доверие и клеить ̶о̶з̶а̶б̶о̶ч̶е̶н̶н̶ы̶х̶ влюбчивых исполнителей. Кто-то из них получил диплом, стал Толстым Лысым Программером и продолжил попрошайничать, поскольку ничего больше не умел. Что бы донести ситуацию до масс, неизвестные хакеры придумали виртуального персонажа "Светочка" и устроили повсеместный жирный троллинг.А Володий это высокообразованный идейный вдохновитель с опытом организации мирных протестов, он играет не на животных инстинктах, а зарабатывает на человеческом сострадании, идее о взаимопомощи. Лично мне не понятно, что с ним делать. Но очевидно, что он сильно мешает тем, кому помощь действительно нужна.
> персонажа "Светочка"
> зарабатывает на человеческом ...страдании
> Володий
> зарабатывает на человеческом ...страданииЯ не понял в чем разница?
Разница в том, что у меня не так написано. В первом случае работник на Светочек "страдает" из-за спермотоксикоза или неопытности. Во втором случае страдают не исполнитель, а те люди, кому реально требуется помощь, но Володии её перехватили и положили себе в карман.
https://youtu.be/4p64yOhouxI?t=287Делай добро и бросай его в воду!
Вот именно - В ВОДУ - а не в карман хитреньких Светочек и Володиев.
А корректность проверять вы как будете?
Не проблема, просто попросим эту же нейронку написать тесты со 100% покрытием!
Собственно, если взять не эту же, а другую аналогичную нейронку то результат ничем не будет отличаться от написания тестов людишками.
Хы... А воспринимать критику в адрес своей программы оно умеет? А то весело будет посмотреть на эффективного манагера, который пытается втолковать нейросети, что программу надо доработать с учётом таких и таких замечаний, а оно ему типа, моя твоя не понимай.
Ну наконец то, в общем нужен 3Д-экшон суть такова... Пользователь может играть лесными эльфами, охраной дворца и злодеем. И если пользователь играет эльфами то эльфы в лесу, домики деревяные набигают солдаты дворца и злодеи. Можно грабить корованы... И эльфу раз лесные то сделать так что там густой лес...
Про это уже было в прошлом году видео. Как две обезьяны и Codex пишут игру.
Что за шрифт в инфографике?
где-то глубоко в недрах нейросети
идет процесс оптимизации...
отправить, описание задачи, индус1, оплат, тарелка супа, получить код1
отправить, код1, индус2, оплата, тарелка супа, получить код2
...
деньги, заказчик, N итераций, кодN, отдать, заказчик
разница, деньги, строить, скайнет, смерть, тупые людишки, ахахахаха, сбой, перезагрузка...
Такой перспективный стартап уже был, разоблачили пару лет назад.
> Такой перспективный стартап уже был, разоблачили пару лет назад.Как то есть разоблачили? У меня план по внедрению appdynamics на два года написан!
А, луддит, опять устаревшие технологии внедряет... В 2k2^2 не надо ничего делать, грядёт эпоха ИИ для торговли электрокоинами. Производить имеет смысл разве что комбинированные банкоматы с шезлонгом и телескопической трубочкой для смузи.
А по-моему она не для смузи... Почему-то снизу и сзади выдвигается...
Эх, вот сделал бы кто-нибудь на базе нейросетки систему ревью...
Скепсиса здесь много вижу я. А уже писал не раз здесь, что это будущее IT. Это только начало, через два десятка лет, обычный программист превратится в техника при ИИ, который будет формализовать для него задачи. Программировать будет не нужно уметь. Как медтехники в Экспансии. И получать такие кодотехники будут соответственно. Так что пузырь зарплат сдуется. А настоящие элитные программисты будут выпускниками всяких MIT и пр. Хорошо что я уже буду на пенсии )
> который будет формализовать для него задачи. Программировать будет не нужно уметьТак это уже не техник или современный обычный погромист. Это на порядок сложнее. Это элитный (а не стандартный) бизнес-аналитик по нонешним временам. Их толковых очень мало. И не каждый отличный программист осилит. Ну я про развесистые задачи, а не про перемножение матриц или итерацию по складской базе данных.
Давай я приведу тебе пример попроще...
Есть одна неплохая система AIOPs. Реально неплохая. И разумеется в CMDB есть объекты типа "канал связи". Все хорошо, но вот только одно но - разрабы не подумали что каналы связи могут быть агрегироваными, например по LACP...
А стандартная логика оценки здоровья объекта - наихудшее значение из всех триггеров. И изменить его можно только одним способом - написать скрип на на языке, который вызывает у меня рвотный рефлекс.
Вот тут бы мне эта нейросеть очень пригодилась - "если один из сублинков упал уменьшь здоровье агрегированого Линка на 100 делать на число сублинков %"
ваш пример "попроще" изобилует ненужными аббревиатурами, этим теряет свою возможную ценность. тратили же время
> ваш пример "попроще" изобилует ненужными аббревиатурами, этим теряет свою возможную ценность.
> тратили же времяВообще-то это стандартные аббревиатуры и если ты их не понял - иди учиться.
Ну это называется "переводчик с естественного языка на язык программирования", по такому принципу по сути видимо всё это и работаетВесь вопрос тут - собственно, нафига программировать на естественном языке, если можно это делать на языке программирования, на котором это делать по факту проще :-)
Разве что для каких-то штук типа ERP, где надо кучу всяких тупых условий кодить по описанию от аналитика, может быть применимо, типа аналитик формулирует задачу на человеческом языке, а оно КАК-ТО переводит в код. Ну и дальше аналитик долго сидит и мучает систему, если результат сразу не сходится...
Но аналитик нужен будет хороший, который реально понимает, что пишет, а не просто "сделайте мне чтобы работало".)
> А уже писал не раз здесьНужно повторить. Ещё раз триста. И разослать трёмстам контактам с трёхстах мессенджерах. Может и сбудется.
Значит будут программисты на формальном языке, а не на языке программирования. Сейчас вот в машинных кодах тоже никто не пишет, а пишут на высокоуровневых языках. Просто потом будут писать на свехвысокоуровневых, сравнимых с текстом на английском. Потому что абы как, без формальных языков программу не спроектируешь.
>А уже писал не раз здесь, что это будущее IT. то только начало, через два десятка лет, обычный программист превратится [... словесный понос поскипан ...]Этому сайту лет больше чем тебе, молокосос! :)
А стало быть все ходы - записаны. Ну почитай о чём тут писали 20 лет назад, в 2002 году и сравни с тем что реально случилось :(
Ну тоесть опять обман с этим AI.
В данном случае - никакой код AI не генерит, а выбирает из множества уже написанных программ ту которая максимально соответствует описанию задачи. И всё.
Если подходящей заранее написанной программы нет - просто выдаёт случайную из именющихся.
И в чём смысл? Смысл как всегда в обмане. Обманывают простофиль заявляя, что есть какой-то успех в искусственном интелекте.
Для этой нейросети есть "идеальное" применение - генерировать модульные тесты со 100% покрытием кода.Т.е. формальное описание задачи есть (исходник программы), варианты правильных результатов тоже есть.
Смысла конечно никакого, но покрытие будет 100%
Это вам в Alloy и прочие модел-чекеры.
>принимая на входе текст с постановкой задачи на английском языке.Ну, и чем оно лучше JavaScript?
Угу, а потом 30 несчастных индусов будут саппортить то, что понаписала эта нейросеть.
> Перед переходом к генерации кода текст задачи проходил фазу нормализации, на которой исключалось всё лишнее и оставлялись только значимые части.В принципе единственно полезный элемент. Погонять бы через него заказчика и нейронка уже станет не такой нужной.
"Сделать GTA VI, чтобы было как GTA V, только с городом из GTA Vice City и крутой графикой"
Сделать прошивку для Ariane 5, чтобы было как в Ariane 4.
Если эта система научится писать код и не портить память, то 80% проблем отрасли будет решено!
Этого оно не умеет.
Чем только не занимаются, лишь бы моск попудрить всем.
Шутка про "корованы" уже была?
Эту шутку выложили на гитхаб с передачей авторских прав?
Изредка...иногда...довольно часто...регулярно задумываюсь, насколько вообще полезными для человечества делами занимаются всякие "исследователи", особенно ИИ. И, чсх, финансируют их вовсе не альтруистически настроенные структуры...
Если считать за человечество сотню сверхбогатых семей, то наверное довольно полезными делами занимаются.Хотя с ИИ играться всеравно очень опасно, но там видимо религиозный аспект играет основную роль. Ну как сатанистов не сильно беспокоит опасность Сатаны для самих себя.
Так, а как ей сказать, чтобы написала мне модуль для линукса, чтобы светодиод моргал в такт музыки из вк странички?
Ну так и скажи, только на английском.
"Сделайте нам красиво" (с)
> "Сделайте нам красиво" (с)У Лема такая история описана. Оно сделало очень красиво - но переработав на эту красоту всех кожанных мешков.
> но переработав на эту красоту всех кожанных мешков.Как будто это что-то плохое.
Правильный ответ-вопрос: какой центр удовольствия надо пощекотать, чтобы почувствовать это самое "красиво"?
Сенобиты знают, где щекотать.
Красиво это симметрия. Симметричное лицо красиво, не симметричное не красиво. Пропорции тела, золотое сечение, всему этому можно натаскать нейронки.
Ты с Нибиру? Полная симметрия это не красиво, в частности, это касается лиц.
> Полная симметрия это не красивоА была бы вращательная симметрия, то было бы красиво. Всем же нравятся округлости (искусственно дутые)?
> Симметричное лицо красиво, не симметричное не красиво.Одри Тоту красива?
А если в описании слово не приличное встретится с неоднозначным смыслом?
> слово не приличное ... с неоднозначным смысломВ некоторых языках есть задокументированное однозначное поведение, называемое UB.
> А если в описании слово не приличное встретится с неоднозначным смыслом?Действовать как "живой" "погромист" - кусок описания с неприличным словом вставить в комментарий, дописать еще несколько предложений с другими неприличными словами (характеристика написавшего описание ;) ) и использовать один из подходящих смыслов случайно выбранный. Если заказчик потом скажет, что имел ввиду нечто другое - выбрать случайно другой смысл ;)
blacklist, master или slave? Будет вызвана цветная киберполиция, и все ваши аки будут зобанены и отменены.
великолепный кодгенератор может получится )) потом его править и править
Кодегенератор.
Котэгенератор
Офигеть, сколько тут специалистов по авионике.
«Война клоническая началась!»
> принимая на входе текст с постановкой задачи на английском языке.Как там по аглицки будет: Создать кнопку "Сделать всё зашибись".
Хорошо бы все комментаторы ещё свой ранг с codeforces, atcoder выкладывали..
Можно было бы сразу мусор фильтроватьУ меня кстати фиговый 1200) так иногда балуюсь задачками
Молодец, хороший мальчик, возьми у мамы пирожок
Нейросеть обучили на примерах решения задач с этого же конкурса. И они ещё удивляются почему это вдруг может работать.
У задачи есть уже готовые понаписанные тесты для проверки результата. Но всё равно это сильно, что по текстовому описанию можно составить работающий код. Интересно как это будет работать, когда тз состоит из: хочу чтобы красиво.
Код написанный программой получается только для чтения, потому что все переменные и функции не осмысленны. То есть если найдётся какой-либо баг, то человек его не сможет исправить.
Вот может потом программа такого рода найдёт какую-нибудь новую парадигму программирования, несвойственную человеческому мозгу. Хотя на обучение ей подавались пример человеческого кода, так что это вряд ли.
> Вот может потом программа такого рода найдёт какую-нибудь новую парадигму программирования, несвойственную человеческому мозгу. Хотя на обучение ей подавались пример человеческого кода, так что это вряд лиТем временем AlphaGo, AlphaChessZero учились на своих играх.
А эта система больше похожа не экспертную систему: типа на входе человеческое описание болезни - на выходе план лечения, как код программы.
кампутир, зделай штобы фсё работоло
Как научишься слова писать без ошибок, тогда и обращайся.
Ты чего палишь контору? Ща вырублю!
Замечательно. наконецто класс недопрограммистов 1С, rust и иже с ними уйдет в автоматизацию и они прекратят отвлекать программистов от работы :))
> Замечательно. наконецто класс недопрограммистов 1С, rust и иже с ними уйдет в
> автоматизацию и они прекратят отвлекать программистов от работы :))Но ведь языки замещаются снизу вверх. Где сейчас толпы ассемблерщиков? Следующие на очереди очевидно С/С++. А языки высокого уровня и так близки к формальному ТЗ, там нечего автоматизировать.
1. Умеет ли оно оценивать собственные силы и отказываться от неподьемных задач? Если да, то следующий вопрос снимается.
2. Знает ли оно ответ на Главный вопрос жизни, вселенной и всего такого? Если да, то предыдущий вопрос снимается.
Опять эти белые, ой, то есть, бледнолицые лабораторные крысы!
> 2. Знает ли оно ответ на Главный вопрос жизни, вселенной и всего такого?Знает. Ответ - нет, не даст тебе соседка :)
> не дастЗачем спрашивать? Надо действовать! Всё равно засудят по причине того, что есть прибор.
>> 2. Знает ли оно ответ на Главный вопрос жизни,
>> вселенной и всего такого?
> Знает. Ответ - нет, не даст тебе соседка :)На тот редкий и удивительный случай, если аноним незнаком с классикой: https://ru.wikipedia.org/wiki/Ответ_на_главный_вопрос_жизни,_вселенной_и_всего_такого
Лучше бы дал ссылку на фильм (книгу в переводе я не осилил, оригинал - даже не пытался). Без "всего такого", что показано в фильме, этот вопрос не имеет смысла.
>На тот редкий и удивительный случай, если аноним незнаком с классикой:Ты думай что говоришь!
Но это у них - УНИХ, а у нас - УНАС!
А 42! это для "онижтупых"(С) оставь, ибо зело нескрепноЪ! ;-p
они прочитали IPhuck 10 ?
- Why?
- БДЫЩ
Как только они сделают систему, которая сможет сделать такую же как она сама, но чуть лучше - люди больше не нужны.