Создана модель эволюционирующего робота DyRET

Хронология развития технологии: человекоподобные роботы Статьи редакции

Как менялись андроиды последние 500 лет.

Первый человекоподобный механизм разработал изобретатель Леонардо да Винчи. На каркас робота он надел броню и запрограммировал на имитацию человеческих движений: встать и присесть, двигать руками и шеей. Кроме того, робот обладал анатомически правильным строением челюсти.

Швейцарский часовщик Пьер Жаке-До, его сыновья Анри-Луи и Жан-Фредерик Лесшо сконструировали три кукольных автомата: музыканта, художника и писателя. Экспонаты хранятся в Женевском музее искусства и истории и до сих пор функционируют. Их считают одними из отдалённых предков современных компьютеров.

Ветеран Первой мировой войны капитан Уильям Ричардс и авиатехник Алан Реффел построили первого британского робота «Эрика». Его создали для открытия выставки Общества модельных инженеров в лондонском Королевском садоводческом зале. На мероприятии он поднялся, поклонился и дал четырёхминутную вступительную речь. Он управлялся двумя людьми, а голос получен в прямом эфире по радиосигналу.

Исаак Азимов сформулировал три закона робототехники в научной фантастике.

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  • Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.

Норберт Винер сформулировал принципы кибернетики — основы практической робототехники.

В этом же году General Electric создала первого промышленного робота для работы на атомном реакторе. Его особенность — наличие обратной связи. Оператор наблюдал за перемещениями и чувствовал силу, которую развивал захват манипулятора для более точного управления механизмом.

Сербский инженер Миомир Вукобратович и его сотрудники в Институте автоматики и телесвязи имени Михаила Пупина построили антропоморфный экзоскелет на пневматическом приводе для помощи парализованным людям.

В Университете Васэда в Токио создали первого электронно управляемого человекоподобного антропоморфного робота Wabot-1. Он состоял из системы управления конечностями, зрением и речью. Он умел общаться с человеком на японском языке и измерять расстояние и направление к объектам, используя внешние рецепторы, искусственные уши, глаза и рот.

Также робот мог ходить, хватать и передвигать предметы руками с помощью тактильных датчиков. Устройство обладало интеллектом полуторагодовалого ребёнка.

Вукобратович совместно с коллегами из НИИ механики МГУ имени Михаила Ломоносова и Центрального государственного института ортопедии и травматологии сконструировали и протестировали первый активный экзоскелет с электромеханическими двигателями.

Университет Васэда представил второе поколение своего робота — Wabot-2. Он мог играть на пианино. Игра на музыкальном инструменты была настроена как интеллектуальная задача, которую приходилось выполнять роботу. Так как для выполнения этой задачи требуется человекоподобный интеллект и ловкость, разработку определили как специализированного робота, а не универсального, как Wabot-1.

Wabot-2 умеет разговаривать с человеком, читать обычную музыкальную партитуру и играть мелодии средней сложности на электронном органе. Также он может сопровождать человека, когда он слушает пение.

Японский конгломерат Hitachi разработал двуногого робота WHL-11. Он мог ходить по плоской поверхности со скоростью 10 секунд на каждый шаг и умел поворачиваться.

Honda разработала семь двуногих роботов, которые маркировались от E0 до E6. Разработка серии продолжилась до 1993 года. Это были экспериментальные роботы, которые превратились в серию P. Она, в свою очередь, была промежуточным этапом в создании робота Asimo и проекта Humanoid Robotics Project.

В Тихоокеанской северо-западной национальной лаборатории создали полномасштабного антропоморфного робота Мэнни. Он не умел ходить, но мог ползать и обладал искусственной дыхательной системой для имитации дыхания.

В Университете Васэда разработали робота Hadaly для изучения связи между человеком и роботом. Он состоит из трёх подсистем: голова-глаз, система голосового управления для прослушивания и выступлений на японском языке и подсистема правления движениями. В этом же году они представили двуногого ходового робота размером с человека Wabian.

Honda создала одного из самых известных в мире роботов — Asimo. Это многофункциональный помощник, который призван помочь людям с плохой мобильностью. Он умеет распознавать объекты, жесты, звуки и лица, позволяя взаимодействовать с людьми. Последнюю версию робота выпустили в 2014 году.

Невидимая революция: как пандемия стала «новым Чернобылем» для развития робототехники

Алиса Конюховская, исполнительный директор Национальной ассоциации участников рынка робототехники, вице-президент Global Robot Cluster, представитель от России в International Federation of Robotics, соорганизатор международного форума «Роботы против COVID-19», ведущая проекта «Среда роботов на Робостанции», в интервью Forbes Life рассказала об индустрии робототехники в России, Японии и мире, о том, как пандемия поменяла рынок, какие предрассудки мешают его развитию и почему роботы незаметно, но уверенно проникнут во все сферы нашей жизни.

— 2020 год, когда произошли колоссальные изменения из-за пандемии, повлиявшей на все сферы жизни, подходит к концу. Какие изменения произошли на рынке робототехники (в первую очередь, в области робототехники сервисной)?

— Робототехника стала одним из заметных технологических трендов, стала ясна ее актуальность, потребность в ней. И когда начиналась эпидемия, появилось ощущение, что она послужит драйвером, толчком для развития робототехники, аналогичным тому, какой вызвала авария в Припяти. В тот момент у нас в стране как раз после катастрофы случился бум развития робототехники, проводились исследования, направленные на ликвидацию последствий аварии на Чернобыльской АЭС.

Говоря о работе для роботов, обращаются к формуле 4D: Dull, Dirty, Dangerous, Dear — рутинная, грязная, опасная и дорогая. Например, в медицинской сфере уже давно роботов внедряют из-за потребности в сокращении расходов, связанных с кадрами, — в западных странах рутинные операции выполняются роботами из-за высокой стоимости человеческого труда. Но сейчас на первый план вышел еще один фактор — опасность заражения. При подготовке совместного с Минкомсвязью отчета о возможностях применения робототехники для борьбы с COVID-19 мы узнали минимум о 30 решениях различных отечественных разработчиков: задачи дезинфекции на улице, в помещениях, роботы, направленные для того, чтобы помогать выполнять рутинные задачи медицинских работников, автоматические системы, выполняющие производственные задачи — такие как изготовление масок. Подробнее об этом мы поговорим 18 и 19 декабря на международном форуме «Роботы против COVID-19», который соберет ведущих робототехников и медиков со всего мира.

— Пандемия дала большой толчок к возникновению инновационных идей. Вопрос в том, кто возьмется за их выведение на рынок в момент экономического кризиса.

— Вопрос в том, насколько бизнес готов использовать новые технологии, тестировать и внедрять — в режиме сохранения денежных средств, оттока инвестиций, сейчас все хотят просто пережить этот этап. Когда происходят кризисы, происходит увеличение роста безработицы и параллельно происходит спад продаж роботов.

Читайте также:  Новый робот от Хироси Исигуро сделан на основе прообраза 10-летнего ребенка

— Какие практики появились в мире — как в разных странах боролись с коронавирусом с помощью роботов?

— Решения для дезинфекции широко использовались в Китае — как с дронов, так и с помощью мобильных платформ. Датская робототехническая компания UVD Robots отправила сотни роботов для дезинфекции ультрафиолетом в Китай для борьбы с эпидемией коронавируса. Появились мобильные роботы, информирующие том, что нужно соблюдать социальную дистанцию. В Китае и Европе сейчас тестируется и реализуется много решений, которые связаны с доставкой роботами-курьерами. Получило развитие автоматизированное тестирование людей на COVID: датская Lifeline Robotics создала установку, которая умеет аккуратно брать мазок изо рта пациента для анализа на коронавирус: робот выглядит как укрепленный на специальной раме манипулятор, оснащенный системой компьютерного зрения и напечатанной на 3D-принтере «рукой» для взятия проб.

— Люди постоянно взаимодействуют с роботами: роботы пишут компьютерные алгоритмы, выполняют функции на производстве, они повсюду, и мы пользуемся искусственным интеллектом, нейросетями, но это все софт, автоматизированное производство, программное обеспечение, а многие представляют будущее таким образом, что люди будут окружены армией роботов в металлической оболочке. По какому пути пойдет развитие робототехники?

— Представление, которое у нас есть о робототехнике, сформировано кинематографом, СМИ и писателями-фантастами. Этот культурный бэкграунд очень сильно влияет на то, как люди воспринимают роботов, к чему они готовы, а к чему – нет. Само слово «робот» искусственное, его придумал чешский писатель Карел Чапек 100 лет назад, в 1920 году. Он описал в пьесе, как люди создали искусственных существ, которые работали на заводе и выполняли рутинные операции, а потом уничтожили своих создателей. Потом этот образ начали тиражировать в Голливуде и такой негативный контекст сохранился до сих пор. Робот стал антагонистом, который всегда нужен для литературы, кинематографа — для создания драматургии.

В 50-е годы два джентльмена, ныне отцы робототехники Джордж Девол и Джозеф Энглбергер начали создавать роботов и столкнулись с проблемой недоверия и неготовностью общества, потому что многие откровенно косо смотрели на эти идеи, многие были не готовы к внедрению роботов в повседневную жизнь. General Motors были одними из первых их клиентов. Однако разработки Джорджа Девола и Джозефа Энглбергера не нашли большого спроса в США, они продали патент на производство робота Unimate японцам в Kawasaki, которая в 1969 году начала его массовый выпуск. Япония стала лидером по использованию и по производству робототехники. Почему в Японии это взлетело? Там активно развивался автопром, японцы столкнулись с потребностью в снижении издержек на рутинных операциях. С другой стороны, в японской культуре присутствует положительное отношение к роботам — синтоизм предполагает, что все вокруг живое, и роботы в том числе. Такие, казалось бы, довольно абстрактные культурологические предпосылки определяют развитие индустрии робототехники. И сейчас Япония занимает первое место в мире по объему производства промышленных роботов — более 50%.

— Роботы-гуманоиды по-прежнему останутся в андерграунде и узкой сфере индустрии развлечений или все-таки выйдут на передовую?

— Разработка роботов — это очень дорогая история, она должна окупаться, в ней должен быть экономический смысл. Такая экономическая целесообразность есть в производстве, именно поэтому уже 50 лет развивается промышленная робототехника. Роботы создают мир, который нас окружает. Все наши смартфоны, компьютеры и автомобили произведены с помощью роботов. Мы просто про это не знаем и не задумываемся. А что касается сервисных роботов — тут нужно нащупать ниши, связанные с бизнес-кейсами и практическим применением. Например, российская компания «Промобот» предлагает решения для кафе, для госучреждений, аэропортов, разработаны роботы-администраторы, консьержи, экскурсоводы, промоутеры. Для клиентов использование таких роботов имиджевая история. Антропоморфные роботы привлекают внимание. В то же время разработки в это области могут быть нацелены на технологии будущего. Например, компания «Андроидная техника» разработала робота Федора. Или робот Атлас от Boston Dynamics

Кроме того, мы живем в среде, которая чисто функционально создана для человека. Это для нас лестница — сущая мелочь, а для роботов становится настоящим препятствием, у них должно быть особенное шасси, которое позволяет преодолевать пороги, лестницы. Или, например, двери и ручки — это сложная задача: определить, схватить и открыть. Как шутил один наш коллега, не бойтесь роботоапокалипсиса, можно просто не открывать роботу дверь. Много аспектов, которые технологически пока сложны.

Мы смотрим все эти фантастические фильмы, нам кажется, что таким должно быть наше будущее. Но роботы к нам будут подкрадываться незаметно, мы будем с ними все больше сосуществовать и не замечать, как никого не удивляет робот-пылесос или стиральная машина. Интерфейс взаимодействия с роботами становится проще — человеку не надо выполнять сложные задачи, связанные с программированием. Достаточно нажать кнопку, и оно поехало.

— Еще в 1980-е японский робототехник Масахиро Мори обнаружил закономерность: люди симпатизируют роботам, похожим на них, но только до определенной степени сходства. Как только сходство достигает критического уровня — людям такие механизмы сразу перестают нравиться — они начинают чувствовать страх или отвращение. С чем связан подобный парадокс?

— Когда робот становится слишком похож на человека, им не являясь, возникает ощущение того, что это не настоящее. Но в то же время неживое, которые начинает оживать, — как зомби, ходячие мертвецы. На уровне ощущения, культурного кода происходит считывание — что-то не так. Это так называемый «эффект Зловещей долины», когда другой объект, выглядящий или действующий примерно как человек, вызывает отвращение у наблюдателей. Поэтому производители специально стараются делать таких утрированно милых, няшных роботов — для того, чтобы они легче воспринимались. Но сейчас есть компании, которые пробуют преодолеть эту «Зловещую долину» с помощью новых технологий, создавая человекоподобных роботов такими, чтобы они располагали к себе. Так, например, пермский разработчик Promobot создал антропоморфного робота Алекса, внешне очень похожего на сооснователя компании Алексея Южакова.

Одна из самых важных тем развития робототехники — каким должно быть человеко-машинное взаимодействие. Здесь очень много различных социально-психологических аспектов, нуждающихся в исследованиях. Есть, например, исследование о том, как люди реагируют, когда кто-то обижает робота. В целях проверки общественной реакции экспериментатор оскорблял и грубил роботу. Люди проходили, и никто не заступался, не реагировал. А если, например, в этот момент там присутствовали еще и другие роботы, которые выражали эмоции грусти, потому что другого робота обижают, то случайные люди чаще вступались и останавливали обидчика, чувствуя эмоции со стороны роботов.

— Когда же произойдет системный сдвиг?

— На вопрос системного сдвига нужно смотреть и с точки зрения предложения, и с точки зрения спроса. Сейчас в самых разных областях происходит изучение возможностей применения робототехники и есть драйверы, которые будут этому способствовать.

Читайте также:  Новая система ИИ будет отфильтровывать спам в интернете

В регионах нарастает большая потребность в кадрах — люди уезжают из деревень, немногие хотят работать на сельскохозяйственных или промышленных предприятиях. Этим предприятиям надо будет справляться с вызовами, делать эту работу более интересной, престижной, автоматизировать ее, справляться с меньшим количеством людей — с учетом огромных малонаселенных территорий с тяжелыми климатическими условиями. Для повышения уровня роботизации производств нужно также готовить кадры, которые смогут создавать и контролировать роботов.

Сейчас в российской промышленности эксплуатируется только 5000 роботов. Если мы хотим приблизиться к общемировым показателям, то роботов должно быть в 20 раз больше — 100 000 единиц. Мы подсчитали, что для обслуживания такого числа установок требуется 20 000 специалистов, а пока что их число немногим превышает 1000 человек на всю страну. К 2025 году эту потребность возрастет до 40 000 специалистов, а к 2030 году — до 66 000 специалистов. А например, согласно исследованию «Газпромнефти» для нефтегазового сектора до 2030 года нужно порядка миллиона роботов. Не менее актуальная тема — сортировка мусора. Таких интересных областей применения роботов довольно много, и необходимо проводить серьезные исследования потребностей и экономических эффектов от внедрения роботов.

Понимание экономики внедрения роботов позволит создавать и тиражировать востребованные технологические решения. В России очень много Кулибиных, талантливых разработчиков и инженеров. Но для робототехники нужно три компонента: технология, инвестиции и спрос. У нас есть технологии, но зачастую не хватает спроса или инвестиций. В то же время сильный разработчик технологий не всегда может быть успешным предпринимателем. И именно предпринимателей в робототехнике не так много, которые бы могли коммерциализировать разработки, создавали бизнес-процессы, продавали и продвигали продукты на глобальном рынке.

В России очень много Кулибиных, талантливых разработчиков и инженеров. Но для робототехники нужно три компонента: технология, инвестиции и спрос. У нас есть технологии, но зачастую не хватает спроса или инвестиций.

Не стоит забывать и о том, что сами люди могут быть сдерживающим фактором для внедрения технологий. Например, сейчас у нас довольно низкий уровень роботизации промышленности. Причем технологии существуют, им уже 50 лет — это велосипед, который уже не нужно изобретать заново. Но сами промышленные предприятия не ориентируются, не стремятся разобраться, что это за технологии, какие внедрять, как готовить кадры, откуда брать деньги. А в сельском хозяйстве еще более консервативные сообщества.

Бизнес-культура у нас в стране еще в процессе становления, ей, по сути, 30 лет. Если посмотреть на возраст руководителей в мировом робототехническом сообществе, в Японии им 70+, иногда даже 80+. В Южной Корее и Китае — 50-60. В Европе и США тоже в районе 50 лет. Это люди, которые на протяжении минимум 20-30 лет создавали робототехническую отрасль в их стране. А у наших руководителей роботокомпаний средний возраст составляет примерно 35 лет. В России за последние 5 лет рынок стал значительно развиваться, выходит из подполья, о нем начинают больше говорить, создается более качественный контент. Наши робототехники молодые, юркие, могут быстрее адаптироваться, создавать новые решения и продукты, менее зажаты в корпоративные структуры, но уступают в части упаковки и продвижения своего продукта на мировой рынок.

— В октябре Россия заняла второе место в мировом рейтинге производителей сервисных роботов — в России 73 компании занимаются производством сервисных роботов. Для сравнения — в Японии 50 компаний, а в США — более 200. Что значат эти цифры и какие проекты особенно выделяются на российском ландшафте?

— У японцев наблюдается сильный перекос в промышленную робототехнику и развлекательные проекты, связанные с антропоморфными роботами, — собачками, игрушками. А когда произошла серьезная авария на Фукусиме, они столкнулись с тем, что у них не оказалось роботов, которые могут справиться с этой ситуацией, туда направляли российских — у нас после чернобыльской катастрофы довольно высокая компетенция в этой области, например, роботов для ликвидации последствий аварии на Фукусиме разрабатывал Центральный научно-исследовательский и опытно-конструкторский институт робототехники и технической кибернетики. Что касается цифр по количеству компаний — тут надо делать скидку на то, что многие могут не знать про рейтинг и само исследование. Мы, например, со своей стороны, продвигали создание списка наших компаний, чтобы в этот рейтинг вошло как можно больше российских представителей. В Китае тоже множество компаний — но они не принимают участия, не предоставляют данные о себе, ориентированы на локальный рынок в том же Китае — он гигантский, компании иногда даже не думают об экспорте, потому что у себя еще внедрять и внедрять, продавать и продавать.

— Всемирный экономический форум (WEF) прогнозирует потерю 75 млн рабочих мест к 2022 году. По прогнозам, только в одном ретейле роботы заменят в течение 10 лет более 7 млн работников. С роботами традиционно связаны и большие ожидания, и страхи человечества — причем чаще всего этот страх довольно иррациональный (и подогреваемый фильмами, мрачными прогнозами и предупреждениями от ученых и представителей ИТ-корпораций). Угрозу замены людей роботами расценивают как нечто совершенно новое — что радикально изменит образ жизни. Но в действительности ничего нового не происходит или это не так?

— Я бы смотрела на те области, где уже происходят революции и мы этого не замечаем. Например — банкоматы. 20 лет назад на предприятиях были кассы, где выдавали зарплату наличкой. Сейчас мы все получаем деньги на карту, нам уже не нужны кассиры на предприятиях, мы уже и в банк почти не ходим — потому что есть устройства и система, которые все это обеспечивают. Банки нанимают не кассиров, а IT-специалистов для того, чтобы эта система работала и обслуживалась. Или другая система, где уже такая революция произошла, — вендинговые автоматы, вместо которых были бабушки, торговавшие у метро или в ларьках. Все эти изменения происходят незаметно, без бунтов кассиров, потерявших рабочие места. Это даже не революция, а эволюция, которую мы не замечаем, технологии происходят медленно и неравномерно. А помимо того, что технологии не так уж и быстро развиваются и внедряются, меняются целые поколения людей. Молодые не захотят работать у станка, передавать детали, работать кассирами. Они хотят других профессий для себя и своих детей. Например, москвичи не хотят работать дворниками, что компенсируется рабочей силой из стран ближнего зарубежья. А в Японии нет мигрантов и дешевой рабочей силы, есть стареющее население, что приводит к активному развитию робототехники.

Читайте также:  Проведены тестовые испытания технологии, способной заряжать беспилотники прямо в воздухе

В самых роботизированных отраслях, например автопроме, внедрение роботов сопровождалось приростом занятых. И это важно. Внедряя роботов, предприятия становятся более экономически эффективными. Благодаря этому они могут сокращать издержки, продавать дешевле. Если они продают дешевле — значит, они могут продавать больше, их доля на рынке увеличивается, и им нужно наращивать производство. Они наращивают производство — соответственно, нужно нанимать новых людей и приобретать новых роботов.

Получается, что сейчас внедрение роботов не приводит напрямую к безработице. Хуже, когда предприятия не роботизируются и теряют конкурентоспособность, свою долю на рынке. В России очень много предприятий так обанкротилось — потому что люди не были готовы к инновациям, видели в них угрозы, а не возможности, которые нужно осваивать. Есть такой показатель, как плотность роботизации — количество роботов на 10 000 рабочих. У нас в стране это 6 роботов на 10 000 рабочих. А в среднем по миру – больше 100, в Южной Корее – более 700 или 800 роботов на 10 000 рабочих. В Китае — порядка 130 на 10 000 рабочих, а например, лет 5 назад этот показатель был равен 40. В Китае проводилась госполитика, направленная на поднятие уровня роботизации производства. С одной стороны, грустно, что в России такой низкий уровень роботизации, с другой стороны, все туда идут, мы тоже пойдем, и сейчас начнется бурное развитие этого рынка, уже сейчас мы видим прирост — это 40% ежегодно.

Робот-тележка на ROS. Часть 4. Создаем симуляцию робота, используя редакторы rviz и gazebo

Продолжение цикла статей о создании небольшого робота. В этот раз речь пойдет о создании копии робота в симуляции, которую предлагают визуальные ROS-среды rviz и gazebo (далее «редакторы»). Работа в редакторах будет вестись на виртуальной машине, образ которой был ранее предоставлен для скачивания образ. Так как речь идет о симуляции, построении модели, сам робот-тележка не понадобится.

Предыдущие посты серии:

Создание базовых urdf-файлов

Вообще, процесс создания робота упрощенно состоит как правило из следующих стадий:

1. Создание модели робота.
2. Тестирование модели в симуляции.
3. Создание реальной модели робота.
4. Тестирование реальной модели.

Работая с редакторами ROS, которые предоставляют шикарные возможности как по построению моделей и их тестам в виртуальном мире, надо признать, что реальные модели роботов ведут себя не всегда аналогично своим бестелесным братьям. И здесь время на работу с моделями в виртуальном мире складывается со временем, необходимым на доработку реальной модели.
Такое дарение времени, как говорил один известный человек, могут себе позволить не только лишь все.

В связи с этим, в предыдущих постах была нарушена последовательность роботостроения: сначала была создана реальная модель робота. Теперь же речь пойдет о ее виртуализации, так сказать.

Создаем urdf

Для того, чтобы в полной мере насладиться симуляцией в Gazebo и протестировать робота, сперва необходимо создать URDF файл для робота.

URDF файл является своеобразным каркасом-скелетом в области визуализации.
Проще говоря, URDF файл — это файл, описывающий робота.

Как ранее было заявлено, работа будет вестись с использованием образа VMWARE Workstation, на котором уже установлена ROS(Ubuntu 16.04, ROS-Kinetic) и визуальные редакторы. Поэтому все действия воспроизводимы в данной системе.

Создадим пакет ROS с названием rosbots_description.

Для того, чтобы это сделать надо войти в папку с catkin_ws/src и выполнить команду создания пакета в ROS:

*Если при выполнении команды roscd; cd ..; cd src; вы не попали в catkin_ws, то возможно у вас несколько сред подобного типа. Для того, чтобы активировать нужную, необходимо зайти в папку catkin_ws и выполнить команду: source devel/setup.bash. Чтобы не заблудиться, если вы работаете с образом, в эту папку можно попасть из корня: cd

Если все прошло успешно, то создастся папка rosbots_description.

Почему так сложно и не проще ли просто создать папку в catkin_ws/src вручную? И что там за rospy?

Вручную создать папку можно, но придется также вручную писать еще два файла, с которыми работает ROS: CMakeLists.txt и package.xml.

Именно они присутствуют в папке после создания:

Их ROS создает самостоятельно. Пока на их содержимом останавливаться не будем.
rospy в конце команды означает создание зависимости, поддержку python.

Внутри вновь созданного пакета rosbots_description создадим папку urdf, а в ней — файл rosbots.xacro.

Прелесть системы ROS в том, что в какой папке системы вы бы не находились, можно сразу попасть в целевую, просто набрав ее название с командой roscd в начале строки.

Теперь поместим во вновь созданный файл следующий код:

Если код не отображается, то все файлы можно скачать в конце поста.

Для кода выше нам также понадобятся ячейки (meches), которые будут подгружаться в процессе запуска пакета.

Meches можно взять здесь
и положить распакованную папку meches в rosbots_description.

Если посмотреть код детально, то можно выяснить, что это стандартный файл xml, состоящий из блоков:
— visual
— collision
— inertial

Каждый блок описывает свою часть: visual — это внешность робота, не более, collision и inertial — это физика робота, как все будет взаимодействовать с внешним миром — столкновения, инерция.
joints — элементы, которые помогают определить движение между частями робота (links). Так например, движение колеса (wheel) влияет на раму в целом (chasis).

origin xyz — это первоначальное расположение объекта по осям x,y,z.

parent link и child link это соответственно родительская и дочерняя связи, что из чего растет.
Также примечательно наличие типов: type=«continuous», type=«fixed». Это определение того, что может вращаться, а что нет. Так колеса имеют тип continuous. А, например, batery_joint — fixed.
Отступы в коде такого же глубоко смысла как в python, где нельзя мешать табы и пробелы, не несут. Но для рая перфекциониста и наглядности лучше их иметь.

Код приведенный выше является по сути моделью робота.

Работа в rviz

Посмотрим что вышло.

Для этого надо создать файл запуска, который будет запускать пакет ROS.

Для этого в ROS служат так называемые launch файлы. Суть launch файла — позволить запустить ноду, команду или несколько нод одной короткой командой без необходимости указывать в ней все аргументы и прочая.

Создадим в rosbots_description папку launch с файлом rviz.launch:

*В этот и последующие разы уже нет необходимости создавать ROS-пакет как это делалось ранее. Теперь система сама будет «видеть» файлы внутри пакета. Поэтому мы просто создаем директорию.

Читайте также:  Высокое качество по честной цене: в продажу выходит беспроводной пылесос Mi Vacuum Cleaner G9 от Xiaomi

Наполним файл содержимым —

Здесь видно, что при запуске система будет искать описание модели в rosbots.xacro.

Далее запустит 3-и ноды: joint_state_publisher из пакета joint_state_publisher, robot_state_publisher из robot_state_publisher, rviz из rviz. type -это тип ноды, как правило соответствует одноименному Python или С файлу, но указывается без расширения.

В 1-м терминале запустим ROS-мастер:

*Если выдало ошибку

ROS_MASTER_URI [http://192.168.1. 11311] host is not set to this machine

то надо проверить bashrc — на каком ip запускается ROS:

в самом файле bashrc указать ip виртуальной машины (например, такой):

далее перечитать bashrc:

/.bashrc или перезагрузиться.
**
Если roslaunch все равно не запускается, то можно попробовать зайти в папку catkin_ws и выполнить: source devel/setup.bash

Погружаемся в Rviz

После выполнения команды, запустится Rviz-редактор и откроется графическая оболочка.
Визуальное представление может отличаться, но в целом вид будет примерно следующим:

Слева в колонке Displays можно наблюдать опции отображения тех или иных элементов, взаимодействующих с нодами ROS, по центру — изображение робота, справа — колонка с камерой вида робота. Сразу надо сказать, что с rviz лучше работать с 3-х колесной мышью, так как все кнопки мыши здесь задействованы. Зажав левую можно повращать пространство в окне с отображением робота, зажав правую — приблизить/отдалить, зажав обе клавиши — перемещать пространство относительно робота.

В основном работа в редакторе ведется в первых двух колонках: Displays и Визуальном представлении робота.

Поработаем с видом робота

Выберем в строке «Fixed Frame» — «base link»:

И добавим Robot Description в Displays:

Нажмем «Add» и в списке выберем «RobotModel»:

Теперь в окне симуляции можно наблюдать робота, который был воспроизведен из модели rviz.xacro:

Отлично. С визуальным представлением все ясно. Теперь необходимо понять как запустить симуляцию, потому как rviz лишь визуализация симуляции, но не сама симуляция.
То есть физика здесь не работает.

Сама симуляция живет в редакторе под названием Gazebo.

Gazebo

Чтобы поместить созданную модель в Gazebo, создадим еще один launch файл — spawn.launch в папке launch проекта. Теперь у нас 2 launch файла!

Здесь мы также считываем модель, затем аргументами передаем ее расположение в пространстве по осям x,y,z. Далее запускаем всего лишь одну ноду — mybot_spawn из пакета gazebo_ros.
*Доустанавливать пакеты, упомянутые выше нет необходимости. При желании можно посмотреть на эти пакеты все той же командой: roscd. Например roscd gazebo_ros.

Теперь остановим Ros-мастер в 1-м терминале:

И запустим редактор Gazebo:

Во 2-м терминале запустим вновь созданный файл:

Теперь мы видим нашего робота в симуляции редактора Gazebo:

*Если у вас ошибка: Waiting for service /gazebo/spawn_urdf_model
Это значит, что вы запустили модель без предварительного запуска Gazebo, нарушив очередность запуска.

Поездим в симуляции gazebo.

Теперь добавим в rosbots.xacro следующий код до закрывающего тега :

Симулятор Gazebo можно не закрывать при правках.

Теперь удалим модель из редактора Gazebo:

либо просто перезагрузим редактор.

*Gazebo капризный на виртуальной машине, поэтому даже после закрытия иногда простит CTRL+C дополнительно в терминале.

Заново разместим модель в Gazebo после правок:

Если теперь посмотреть список топиков ROS, то можно увидеть, что среди них есть и

Теперь попробуем поуправлять роботом в симуляции, запустив управление в отдельном терминале:

Находясь в окне с запущенным управлением и нажимая в окне терминала клавиши «i»,«l»,«j»,«k»,”,” можно наблюдать движение робота в симуляции редактора Gazebo:

Intuitive – компания, подарившая миру робота da Vinci

Исследование, подтолкнувшее к созданию Intuitive

Исследование, которое привело к созданию компании Intuitive Surgical и системы da Vinci, было проведено в конце 1980-х годов в Стэнфордском исследовательском институте, позже известном как SRI International. Его цель состояла в том, чтобы усовершенствовать хирургические инструменты, доступные в области малоинвазивной хирургии (MIS).

Усилия SRI по совершенствованию микрохирургии были поддержаны в 1990 году финансированием Национальных институтов здравоохранения. Исследователи разработали прототип роботизированной хирургической системы, которая включала в себя основные элементы системы da Vinci. Система SRI, как ее тогда называли, привлекла внимание Управления перспективных исследовательских проектов в области обороны (DARPA). DARPA рассматривало систему SRI как способ «телехирургии» на поле боя. Идея заключалась в том, что с помощью спутниковой связи хирурги, находящиеся за сотни миль от горячей точки, могли использовать роботизированную хирургическую систему для выполнения жизненно важных операций раненых солдат в удаленных местах.

Невоенное использование SRI

Чтобы стимулировать интерес к невоенным приложениям, SRI продемонстрировал прототип многочисленным венчурным капиталистам в начале 1990-х.

Единственным, кто проявил интерес к разработке, стал доктор Фредерик Молл.

Фредрик Молл

Фредрик Молл 12,13,14 – разработчик медицинского оборудования и предприниматель, специализирующийся в области медицинской робототехники. Молл родился в семье врачей. Он вырос в Сиэтле, где учился в Lakeside School и был одноклассником соучредителей Microsoft Билла Гейтса и Пола Аллена. Затем Молл учился в Калифорнийском университете в Беркли, где получил степень бакалавра искусств, а после поступил на медицинскую специальность в Вашингтонский университет. Спустя некоторое время он оставил ординатуру, чтобы заняться разработкой предохранительного троакара – инструмента, который позволял хирургам проделывать отверстие в брюшной стенке без риска повреждения органов.

Молл стал соучредителем компании Endotherapeutics для продвижения троакара; в конечном итоге бизнес был приобретен US Surgical. Молл также стал соучредителем Origin Medsystems, Inc. для разработки лапароскопических инструментов, компании, которая была куплена Eli Lilly и преобразована в дочернюю компанию по производству кардиологических инструментов Guidant Corporation. До 1995 года Молл занимал должность медицинского директора хирургического отделения Guidant. За это время он убедился, что робототехника может помочь сделать рутинные операции менее инвазивными, и в 1995 году покинул компанию, заинтересовавшись системой SRI.

Команда, учредившая Intuitive

Изначально Молл полагал, что система SRI не имеет большой коммерческой ценности. Но чем больше он осмысливал потенциал системы, тем тверже убеждался, что это не так. Он знал, что элементы телехирургии системы можно применить в лапароскопии. Поэтому Молл обратился в венчурную фирму Mayfield Fund, которая поддерживала его в прошлом. Работая с Mayfield Fund, он познакомился с Джоном Фройндом, который имел Гарвардскую медицинскую степень и Гарвардскую степень MBA. Образование и опыт Фройнда позволили ему изучить потенциал идеи Молла.

Фройнд был убежден в успехе системы SRI и пригласил инженера-электрика Роберта Юнге, чтобы тот предоставил необходимую техническую консультацию. Юнг был выпускником Стэнфорда и в 1979 году стал соучредителем Acuson Corporation, крупного разработчика и производителя ультразвуковых систем. В 1995 году Фройнд успешно получил лицензию на технологию от SRI, за которой последовали другие лицензии на технологию от IBM и MIT. В ноябре Юнг, Молл и Фройнд учредили Intuitive Surgical Devices, Inc. Два года спустя компания была переименована в Intuitive Surgical. Mayfield Fund и другая венчурная компания – Sierra Ventures – предоставили Intuitive Surgical начальный капитал в размере 5 миллионов долларов. Morgan Stanley Ventures присоединилась к следующему раунду финансирования, за которым последовал ряд частных инвесторов в последующих раундах. В общей сложности к концу 1990-х Intuitive привлекла 127 миллионов долларов инвестиций.

Читайте также:  Компанией Nissan разработан робот, способный рисовать разметку на футбольном поле

Первый медицинский прототип

Юнге приступил к переработке системы SRI в полноценное медицинское оборудование. Система была испытана на трупах, и к марту 1997 года у него был готов прототип. Он назывался Мона, в честь картины Леонардо да Винчи “Мона Лиза”. Напомним, что именно Леонардо Да Винчи изобрел первого в мире человекоподобного автоматона, поэтому его имя в конечном итоге было применено к коммерческой версии системы. Тем временем Мона была доставлена в Бельгию для испытаний на людях, где выполняла относительно простые процедуры, такие как хирургия периферических сосудов.

Практика показала неудовлетворительное качество визуализации. Это повлекло за собой новые инвестиции и разработку эндоскопа, который мог бы обеспечить трехмерное изображение. После доработки в 1998 году система снова была отправлена в Европу для испытаний. Там она использовалась для проведения абдоминальных операций и операций на открытом сердце.

В то время как Intuitive Surgical начала процесс получения разрешения FDA, она запустила маркетинговую кампанию da Vinci в Европе, продав там десять систем в 1999 году и параллельно начала готовиться к первичному публичному размещению акций. К июню 2000 года компания заработала 46 миллионов долларов на продаже акций.

Конкуренция на рынке

Intuitive была не единственной компанией, ведущей разработки в сфере роботизированной хирургии.

Ее конкурент – компания Computer Motion – была основана в 1989 году для разработки хирургических роботов. Основой послужили технологии НАСА, используемые для удаленной сборки оборудования в космосе. Компания стала публичной в 1997 году и была одним из первых лидеров в области хирургических роботов. Ее фирменным продуктом стала роботизированная хирургическая система ZEUS, которая также была одобрена для использования в Европе и ожидала одобрения FDA. ZEUS также сочетал в себе роботизированные руки, компьютерное управление и видеоконсоль, а также программное обеспечение для распознавания голоса, которое позволяло хирургу вызывать определенные команды.

Еще одна компания – Integrated Surgical Systems Inc. (Computer Motion) – представила свою разработку – робота RoboDoc для выполнения артропластики бедра и других ортопедических операций. Именно Computer Motion стала главным конкурентом Intuitive, и в начале 2000-х между двумя компаниями велись дорогостоящие судебные иски. Но в 2005 году компания Integrated Surgical Systems Inc. обанкротилась.

Новые направления роботической хирургии

Вскоре Intuitive получила разрешение FDA на использование da Vinci при заболеваниях желчного пузыря и гастроэзофагеальной рефлюксной болезни. Перспективным направлением робота называли удаление желчного пузыря. Однако в июне 2001 года компания получила одобрение FDA на проведение операций на простате.

2000 году компания добилась незначительных продаж в США, однако в 2001 году робота стали покупать активнее, так как врачи осознали преимущества проведения роботической простатэктомии. Система также использовалась при торакальных операциях и восстановлении митрального клапана сердца. В 2002 году Молл и Юнг покинули Intuitive, чтобы основать еще один медицинский стартап. Молл оставался в совете директоров Intuitive до начала 2003 года.

Слияние двух компаний

Несмотря на все достижения Intuitivе, продажи cистемы da Vinci шли медленно. Она была дорогой, а используемые в ней инструменты для микрохирургии и микрочипы можно было использовать лишь несколько раз. В среднем на операцию необходимо было использовать инструменты на сумму 1500 долларов. Более того, судебное разбирательство между Intuitive и Computer Motion заставляла потенциальных клиентов нервничать по поводу финансовых обязательств перед компанией. Вопрос был решен в июне 2003 года, когда Intuitive и Computer Motion объединились. Слияние обернулось успехом: система Zeus была заменена на da Vinci. Объединенная компания смогла добиться повышения эффективности операций. Продажи выросли, чему в немалой степени способствовало увеличение количества видов операций, одобренных FDA.

Успех Intuitive

В 2004 году выручка компании увеличилась на 51 процент до 138,8 миллиона долларов, а чистая прибыль составила 23,5 миллиона долларов. В 2005 году объем продаж увеличился до 227,3 миллиона долларов, а чистая прибыль выросла до 94,1 миллиона долларов. Робот da Vinci утвердился в медицинском сообществе, но он все еще оставался дорогим и, по мнению некоторых, был слишком громоздким. Тем не менее его потенциал оставался огромным.

Весной 2005 года да Винчи получил одобрение FDA на гистерэктомию (направление гинекологии) – процедуру, которая проводится в пять раз чаще, чем операция на простате (простатэктомия, направление урологии) и применяется при лечении миомы матки, рака яичников, эндометриоза, рака шейки матки. С 2009 года с расширением направлений применения da Vinci в мире выросло и количество роботических операций.

Роботические системы установлены в 67 странах по всему миру, самое больше количество – в США.

Многие американские клиники имеют более 5 систем. На графике ниже вы можете наблюдать динамику роста количества клиник США, где установлено более 5 систем.

К 2014 году было опубликовано более чем 6000 работ, посвященных роботической хирургии, более 4000 систем da Vinci инсталлированы в более чем 1500 медицинских учреждениях по всему миру.

В 2018 году впервые было выполнено более 1 миллиона роботических операций по всему миру за год. За все все время в мире было выполнено 7,2 миллиона роботических операций.

В 2014 году была введена в эксплуатацию роботическая система da Vinci Xi, после чего наблюдается рост операций по направлению абдоминальной хирургии. Использование системы четвертого поколения расширило возможности абдоминальной роботической хирургии. Увеличилось количество операций по данному направлению, число исследований и научных работ. Это обуславливается функциональными обновлениями роботической системы Xi. Среди них:

  1. вертикальный доступ к пациенту и, как следствие, расширение возможностей мультиквадрантной хирургии;
  2. интеграция с динамичным операционным столом;
  3. возможность проведения большего числа операций с однократным докингом (т.е. однократной стыковкой робота с пациентом) и пр.

Intuitive сегодня

Штаб-квартира компании вместе с исследовательским центром, маркетологами и отделами продаж находится в Кремниевой долине (Калифорния). Исполнительным директором Intuitive и членом совета директоров является Гэри С. Гутхарт. Он занимает эту должность с 2010 года. Гутхарт имеет более чем 25-летний опыт работы в медицине, инженерии, науке и управлении.

Сегодня команда Intuitive – это:

  1. 7109 сотрудников по всему миру,
  2. 3226 сотрудников в головном офисе (Саннивейл, Калифорния),
  3. 194 инженера по обслуживанию на местах по всему миру, которые обеспечивают оперативное решение сложных технических задач.
Читайте также:  WhatsApp перестанет работать на некоторых телефонах

Экосистема компании Intuitive

Роботическая хирургия – это больше, чем просто технология в операционной, считают в Intuitive. Поэтому компания разработала собственную экосистему, нацеленную на поддержку и эффективную работу роботических центов и хирургов. Она состоит из четырех элементов:

  1. Поддержка и аналитика: специалисты Intuitive предоставляют оперативную поддержку, которая потенциально может помочь улучшить результаты лечения пациентов и снизить затраты клиник.
  2. Обучение. Образование и подготовка хирургов и персонала очень важны для оказания качественной хирургической помощи, поэтому компания предоставляет широкие возможности для обучения: семинары, онлайн-курсы, стажировки, методические материалы и пр.
  3. Инновации и интеграция: компания постоянно работает над совершенствованием своих систем для предоставления расширенных возможностей хирургам и еще более качественного лечения пациентам.
  4. Пациенты, хирурги и клиники: аудитория, для которой компания Intuitive создает улучшенные условия оказания и предоставления медицинской помощи с использованием вышеперечисленных элементов.

Продукты Intuitive

Система da Vinci

После того, как компания прочно закрепилась на рынке медицинского оборудования и, фактически, стала на нем монополистом, она начала вкладываться в развитие и совершенствование систем da Vinci, появились системы 2, 3 и 4 поколения: IS2000 ( da Vinci S, da Vinci S HD), IS3000 (da Vinci Si), IS4000 (da Vinci X, da Vinci Xi, da Vinci SP). Система, управляемая опытным хирургом, дает возможность проводить вмешательства с минимальной кровопотерей и травмированием окружающих тканей. Это позволяет получать высокие результаты, в том числе при лечении онкологических заболеваний, и при этом сократить период восстановления и реабилитации.

Система Ion

Система Ion стала еще одним продуктом Intuitive. Это роботизированная эндолюминальная платформа для минимально инвазивной периферической биопсии легких. Система оснащена ультратонким сверхманевренным катетером, который позволяет перемещаться далеко в периферические легкие, и обеспечивает точность, необходимую для биопсии. Система также получила разрешение FDA. Выведя систему Ion на рынок, компания расширила свою деятельность за пределы хирургии. C вводом данного продукта компания изменила название с Intuitive Surgical на Intuitive.

IRIS

Iris – это приложение анатомической визуализации. Используя данные диагностической компьютерной томографии, Iris создает сегментированную анатомическую 3D-модель пациента. Во время операции хирург может просматривать модель в хирургической консоли da Vinci с помощью Tilepro и управлять ею с мобильного устройства. Используя приложение Iris, хирург может отправить деидентифицированные компьютерные томограммы пациента специалистам Intuitive через устройство iOS. Они проводят маркировку анатомических структур и создают 3D-модель, после чего отправляют результат обратно на мобильное устройство хирурга. Используя полученную модель, Iris помогает визуализировать подход к процедуре, облегчая идентификацию анатомии в период предоперационного планирования.

Компания Intuitive проделала огромный путь от первой инновационной разработки до крупной прогрессивной компании, входящей в индексы NASDAQ-100 и S&P 500. Она продолжает работать в тесном взаимодействии с врачами и больницами, разрабатывая новые минимально инвазивные хирургические платформы и инновационные диагностические инструменты, которые помогут решать сложные проблемы здравоохранения во всем мире.

В Южной Корее создали робота-хамелеона, который маскируется под окружающую среду в реальном времени Статьи редакции

Его «кожа» состоит из жидких кристаллов и имитирует цветовые переходы при помощи нагревателей.

Инновационную разработку представили исследователи Сеульского национального университета. Робот действительно похож на рептилию — умеет ползать и оснащён искусственной электронной кожей, которая меняет цвет в зависимости от поверхности, по которой он движется.

Для этого учёные разделили конструкцию на сегменты и оснастили их термохромными жидкими кристаллами. Под кожей расположились нагреватели на основе серебряных нанопроволок, а на нижней части живота — десятки датчиков, которые отслеживают оттенки под ногами.

Блок управления в реальном времени обрабатывает показатели сенсоров, запускает необходимые нагреватели, а жидкие кристаллы меняют цвет в зависимости от температуры. Заявленное время отклика — полсекунды.

Изменение цвета — не единственное достижение разработчиков. Как настоящий хамелеон, робот не просто отображает окружение, но и старается маскироваться под него. В этом помогает многослойная система паттернов, воспроизводящая на коже узоры, полосы и завитки.

Терморегулирование жидкокристаллического покрытия имеет несколько ограничений. Во-первых, его легче нагреть, чем охладить, поэтому «кожа» не может менять цвет с синего на красный так же быстро, как наоборот.

Во-вторых, диапазон рабочих температур ограничен: он варьируется от комнатных 25 градусов до «человеческих» 36. На робота могут повлиять и окружающие факторы — например, прямые солнечные лучи.

Тем не менее разработчики продолжают совершенствовать технологию. Они планируют ускорить рефлексы робота и внедрить в конструкцию систему охлаждения.

Полное исследование опубликовано в журнале Nature Communications.

Даааа, до чего техника дошла. Я вот иногда грущу от того, что не застану космических путешествий. Хоть бы полёт на Марс увидеть.

Я вот иногда грущу от того, что не застану космических путешествий

главное дожить до аугментаций и возможности стать киборгом

И смотреть как миллиардеры аугментируют себя и лоббируют законы запрещающие это всем остальным

смотреть как миллиардеры аугментируют себя и лоббируют законы запрещающие это всем остальным

быть одним из них

пусть разрешат крестьянам писку увеличивать, а все остальное не важно

И зачем это им? Не надо скатывать разумную критику корпораций до уровня дешевой конспирологии. Аугментации априори не будут доступны большинству жителей планеты из-за своей стоимости. Если какой-нибудь простейший протез руки даже сегодня можно купить за тысячу баксов, то стоимость искусственных глаз исчисляется сотнями тысяч долларов, что отсекает доступ к ним всем, кроме небольшого количества достаточно богатых

или быть закатанным в дредноут

Больше надеюсь увидеть первый контакт, а то за пределы Солнечной системы мы никуда не улетим сами.

Дальше чем по солнечной системе всё равно не будет, физика не позволяет, увы, а до Марса думаю лет 10 осталось, не больше.

физика не позволяет

Лично Эйнштейн запретил?

Эйнштейн никому ничего не запрещал.

В этом нет смысла. Там либо слишком жарко, либо слишком холодно.

Игровой диапазон Архора

Плохо, что не показали как он по траве ползает, а потом заползает на асфальт, кирпич или песок. А то по видео, как-будто он делался специально для геймеров с хайповой РГБ подсветкой

Плохо, что не показали как он по траве ползает, а потом заползает на асфальт, кирпич или песок.

А потом как его ищут сами же разработчики везде и ищут))

Неплохо, юдишки, но до нас еще далеко

. юдишки.

Это было хорошо

Нахуя, а главное нахуя?

.
Для военных преступлений

это не военное преступление, если тебе было весело

это не военное преступление, если тебя не было видно

Военные любой страны за такого робота с приделанной пушкой много денег заплатят.

Читайте также:  Российскими специалистами создан прототип летающего такси-аэробуса

Учитывая что большинство средств наведения на что то сложнее мухи использует комплексы датчиков в тепловом и радио диапазоне это так себе ноухау по эффективности. он еще и цвет меняет за счет изменения температуры + 1 демаскирующий фактор. Разве что в качестве маск халата для снайпера боевиков по горам гоняющего. Хотя все равно возникают вопросы энергопотребления и терморегуляции – он же будет требовать постоянного питания для поддержания нужной температуры, так еще и цвет может начать скакать из за изменения температуры окружающей среды или объектов маскировки.

Заплатить-то заплатят, только пользы от него не будет )

найди хоть одно применение, которое будет полезным для людей, а не в интересах войн и корпоратов?

Компьютеры тоже в интересах военных делались изначально, как и сети, а теперь люди фурри-порно через них смотрят – никто такого предсказать тогда не мог.

Любая фигня которая может выиграть от возможности смены цвета. От модной одежды до автомобилей. Простые системы сигнализации о высокой/низкой температуре (легко пропустить уведомление на телефоне или маленький экран в углу комнаты, сложно пропустить если у тебя стена или там холодильник цвет поменяли) етк.

Мб сможешь себе одежду по настроению перекрашивать. Хотя что-то такое по идее уже есть, но только чб, на сколько я помню

Я же не один вижу здесь Боузера?

я помню уже сколько подобных изобретений.
в 80-ых “умный камуфляж” (тестовый) был описан ещё в ЮТ. (от израилитян, кажется)

в начале 2000-ых для американской армии разработали дорогущие камуфляжи (форму для военных, где чипы вплетены в ткань), которые тоже мимикрировали под окружение.
тогда испытания закончились на том, что в полевых условиях (то бишь под слоем пыли/грязи) бОльшая часть этого “камуфляжа” становилась практически бесполезной.

т.е. было оооочень дорого и нихера не эффективно.

Стелс танк. Скорпион вот.

А, ну да. Призрак чтоль

Не хочу показаться ворчливым дедом, но не знаю, на первый взгляд идея очень проста. Сверху обычная RGB подсветка, которую зачем то заменили на ЖК, а снизу датчик считывающий цвета. Ничего “удивительно революционного” я тут не вижу.

“Как настоящий хамелеон, робот не просто отображает окружение, но и старается маскироваться под него. В этом помогает многослойная система паттернов, воспроизводящая на коже узоры, полосы и завитки.”

За исключением того что хамелеон так не делает ) Ну наконец то у нас появился настоящий хамелеон который реально способен менять цвет для маскировки вместо того чтобы менять его в качестве демаскирующего фактора от смены настроения или стресса.

Больше похоже на проект каких-нибудь студентов из научного кружка.

Это же стелс накидки можно делать теперь.

Если создатели робота безграмотные и не знают почему хамелеон меняет цвета, это не повод тащить эту безграмотность в статьи. Ещё и вот такими фразами:
Как настоящий хамелеон, робот не просто отображает окружение, но и старается маскироваться под него.

Купил такого, он заполз куда-то, поменял цвет и разрядился

И джаз, и электроника: проекты, которые используют искусственный интеллект для создания музыки Статьи редакции

ИИ помогает музыкантам тестировать новые идеи, находить оптимальный эмоциональный контекст, интегрировать музыку в современные медиа и просто развлекаться.

В начале 1960-х годов французский архитектор и композитор греческого происхождения Яннис Ксенакис начал использовать звучания, сгенерированные с помощью ЭВМ и специальных программ на языке Fortran. В 1980-х годах музыкант и ИТ-исследователь Кемаль Эбчиоглу предложил в своей докторской диссертации алгоритмическую систему для гармонизации хоралов в стиле Баха.

По мере того как искусственный интеллект и машинное обучение становились всё более изощренными, рос потенциал компьютерной музыки. Вскоре алгоритмы смогли анализировать принципы составления музыкальных произведений на основании реальных примеров.

Учёный и музыкант Джон Байлс разработал алгоритм GenJam, способный на джазовые импровизации. Байлс, исполняющий джазовые композиции на трубе, выступал вместе с GenJam в рамках проекта Al Biles Virtual Quintet. Аналогичный алгоритм GenBebop был разработан учёными-когнитивистами Ли Спектором и Адамом Алперном для соло импровизаций в стиле Чарли Паркера.

Одной из наиболее убедительных попыток компьютерного музыкального творчества стал алгоритм Continuator, разработанный Франсуа Паше в Sony Computer Science Laboratory в Париже. В тесте Тьюринга, в котором Continuator джемил с профессиональным пианистом, большинство слушателей не смогли угадать искусственное происхождение его мелодий.

Наиболее известная попытка обучить компьютер творческой самостоятельности — Эмили Хауэлл, программа, созданная в 2012 году профессором музыки Дэвидом Коупом. Он предполагал, что любое творчество вдохновлено плагиатом, а великие композиторы впитывали музыкальные гармонии, которые были созданы ранее, и их мозг «перекомпоновал» мелодии и фразы характерными для них, узнаваемыми методами. Эти взгляды легли в основу его разработки.

Первой программой, создавшей симфоническую композицию в своём собственном стиле (вместо того, чтобы подражать стилю существующих композиторов), стала Iamus. Первый музыкальный фрагмент её «сочинения» Opus One был создан 15 октября 2010 года, а ровно через год появилась первая полная композиция Hello World!

Четыре произведения Iamus транслировались в прямом эфире из Школы компьютерных наук в Университете Малаги 2 июля 2012 года. Композиции, исполненные на этом мероприятии, были позже записаны Лондонским симфоническим оркестром и составили альбом Iamus, который New Scientist отметил как первый полный альбом, созданный исключительно компьютером и записанный музыкантами-людьми.

Авторы Iamus — специалисты исследовательского проекта Малагского университета Melomics, который частично финансируется испанским министерством экономики.

Другой рекордсмен в области машинной музыки — созданная в феврале 2016 года AIVA — специализируется на сочинении симфонической музыки для кино. Этот ИИ стал первым в мире виртуальным композитором, признанным музыкальным обществом (SACEM).

Исследовательское подразделение Google Magenta, которое находит способы использования искусственного интеллекта для сотворчества с людьми, в 2017 году представило NSynth Super.

В отличие от традиционного синтезатора, который генерирует аудио из компонентов, разработанных вручную, NSynth использует глубокие нейронные сети для генерации отдельных звуков и собственных семплов. Кроме того, NSynth Super — экспериментальный инструмент с открытым исходным кодом. Это даёт музыкантам исследовать новые звуки, а разработчикам — алгоритм машинного обучения NSynth.

Flow Machines — это исследовательский проект, финансируемый Европейским исследовательским советом (ERC) и возглавляемый Франсуа Паше.

Программа Flow Machines сочинила две песни в соавторстве с поп-композитором Бенуа Карре: Daddy’s Car и Mister Shadow. Flow Machines также выпустили DeepBach, систему нейронных сетей, которая производит правдоподобную гармонизацию в стиле Баха.

С помощью этого алгоритма в 2017 году был выпущен альбом с уже знакомым нам названием Hello World, созданный с использованием искусственного интеллекта. BBC назвала его первым «хорошим» музыкальным альбомом от ИИ.

Читайте также:  Автомобилем Tesla можно будет управлять дистанционно

Запущенный в январе 2017 года австралийский стартап Popgun создал искусственный интеллект Alice, способный подпевать и подыгрывать исполнителям в реальном времени. Начало было положено, когда Alice научилась прогнозировать гармоничное продолжение проигранного ей отрывка композиции.

В августе 2017 года Alice научилась импровизировать: изменять «услышанную» последовательность нот, сохраняя общую музыкальную тему. К началу 2019 года Alice освоила аранжировку на нескольких музыкальных инструментах: она может подыграть вокалисту на басу, барабанах, пианино, а также свести разные музыкальные отрывки в одну композицию.

Другой проект музыкального творчества ИИ, The Watson Beat, написанный IBM Research, не нуждается в огромной музыкальной базе данных, как проекты Google Magenta и Flow Machines, поскольку он использует обучение с подкреплением и глубокую сеть доверия для создания музыки.

Например, в рамках партнёрства с британским хип-хоп-продюсером Алексом Да Кидом алгоритм The Watson Beat проанализировал данные о музыке и культуре человечества за последние пять лет. Чтобы определить наиболее распространенные темы творчества, разработчики использовали API языка Watson Alchemy для чтения и понимания речей Нобелевской премии мира, статей New York Times, текстов песен, синопсисов фильмов и многого другого.

Затем API Watson Tone Analyzer проанализировал более 2 миллионов строк социального контента, чтобы понять эмоции, связанные с актуальными темами.

Используя алгоритмы машинного обучения, The Watson Beat способен учиться на песнях, деконструируя высоту тона, время, последовательность и скорость нот. В сочетании с теориями об эмоциональных реакциях на музыку, The Watson Beat может генерировать совершенно новые музыкальные партитуры, основанные на разнообразных предпочтениях или чувствах.

Используя эту технологию, Алекс смог создавать новые песни или фрагменты песен, например, басовую партию, пока не нашел звук, который вдохновил его. И хотя итог этого партнерства — композиция Not Easy, вышедшая осенью 2016 года — это оригинальная работа Алекса, The Watson Beat стала инструментом для поиска сильных музыкальных приемов и мелодий, анализа транслируемых музыкой эмоций для создания популярной композиции.

В марте 2019 года звукозаписывающая компания Warner Music подписала свой первый контракт на создание музыки, созданной с использованием компьютерных алгоритмов, с компанией Endel. Сооснователь этого немецкого стартапа Олег Савицкий — бывший журналист российского издания F5 и мобильный разработчик.

Endel — кроссплатформенная аудиосистема для смартфонов и колонок Amazon Echo. Приложение генерирует музыкальный фон, учитывая время дня, погоду, разные цели слушателя — пробуждение, отдых, концентрация, тренировка. Президент подразделения по искусству и музыке Warner Music Group Кевин Гор объяснил, что новый бренд позволит закрыть пустующие направления в ассортименте компании.

Скоро будет ИИ во всем, а значит и в медиа. Например, ИИ компании Mubert начал писать музыку еще раньше Endel, и вполне неплохую. Просто в бизнесе они сфокусировались немного на другом.

А компания Instreamatic с помощью ИИ превращает аудиорекламу, размещаемую в онлайн-музыке, фактически в полноценный диалог бренда с каждым представителем его целевой аудитории индивидуально.

Что касается шоу-бизнеса, то представьте себе вечеринку, на которой DJ — это ИИ, а каждый на танцполе либо с умными часами, либо с выданными на входе браслетами, которые мониторят состояние и «настроение» всей аудитории, подстраивая музыку дальше так, чтобы она все больше и больше нравилась всей аудитории, доводя толпу фактически до группового экстаза — как вам такое?

Российский «Яндекс» также экспериментирует с применением искусственного интеллекта в музыке. Первым таким опытом стал альбом симфонической музыки по мотивам «Гражданской обороны» в 2016 году.

Для создания «Нейронной обороны» искусственный интеллект проанализировал тексты Егора Летова, а инженеры перегнали цифровую запись композиций через аудиокассету, после чего оцифровали обратно для получения аутентичного звучания.

В феврале 2019 года другая нейросеть Алексея Тихонова и Ивана Ямщикова из «Яндекса» стала соавтором пьесы для альта с оркестром композитора Кузьмы Бодрова. Несмотря на то, что нейросеть была обучена на четырех гигабайтах MIDI-файлов с произведениями разных эпох, справиться с классической музыкой оказалось сложнее, чем с сибирским панк-роком.

Более 90% материала было отбраковано композитором, а наиболее удачные идеи Кузьма Бодров развил в полноценную музыкальную композицию. 24 февраля её исполнил государственный симфонический оркестр «Новая Россия» под управлением Юрия Башмета на закрытии Зимнего международного фестиваля искусств в Сочи.

Сейчас начинается эпоха сервисов, подписных моделей и, пока что, ИИ активно и по-настоящему использует только Netflix при создании своих сериалов. Во-первых, индустрии нужно научиться пользоваться онлайн-каналом продаж, во-вторых, применять ИТ при построении бизнес-процессов и только потом внедрять ИИ. Однако на горизонте 3-5 лет и это станет привлекательнее для инвесторов.

Сейчас исследования направлены на применение искусственного интеллекта в составлении музыкальной композиции, исполнении и цифровой обработке звука, а также продажу и потребление музыки. Множество созданных на основе ИИ программ и приложений используется для обучения и создания музыки.

AlgoTunes — это музыкальная компания, разрабатывающая приложения, которые генерируют музыку. На сайте любой может создать рандомный музыкальный отрывок с заданным стилем и настроением одним нажатием клавиши — правда, выбор настроек очень ограничен.

Музыка создается веб-приложением за несколько секунд и доступна для загрузки в виде файлов WAV или MIDI.

MXX (Mashtraxx Ltd), основанная в 2015 году — это первый в мире механизм искусственного интеллекта, который мгновенно преобразует музыку в видео, при этом используя только стерео-файл.

MXX позволяет адаптировать музыку под конкретный пользовательский контент: например, для спортивных занятий и бега, для сюжетов компьютерных игр и так далее. Первый продукт MXX, Audition Pro, позволяет любому редактировать музыку для видео: загружать уже существующую композицию и автоматически подгонять повышение интенсивности звучания, затухание и паузы в соответствии с динамикой видео.

Сейчас MXX предоставляет услуги ведущим коммерческим библиотекам, музыкальным сервисам, производителям игр и контент-студиям, которым нужна адаптированная для современных медиа музыка.

Orb Composer — разработанная Hexachords программа для помощи в составлении оркестровых композиций на этапах выбора жанра, подбора инструментов, составления структуры трека.

OrchExtra может помочь небольшому ансамблю средней школы или городского театра собрать полную бродвейскую партитуру. OrchExtra играет роль недостающих инструментов, отслеживая колебания темпа и музыкального выражения.

По мнению Игоря Шнуренко, специалиста по искусственному интеллекту и криптовалютам, ИИ-стартапы сегодня полностью захватили digital-маркетинг в музыкальной индустрии. В октябре 2018 года Apple приобрела стартап Asaii, занимающийся аналитикой для музыкальных лейблов и музыкальных агентов.

Алгоритм Asaii помогает найти перспективных артистов до того, как их музыка «выстрелит» в чартах. Что касается внедрения искусственного интеллекта в творческое создание и другие аспекты музыкальной индустрии в России, эксперты считают эту нишу перспективной — правда, пока в отдаленном будущем.

Читайте также:  Nokia представит новую модель смартфона под названием 9 PureView

Этой весной я наблюдаю высокую активность среди акселераторов и фондов, которые находятся в поиске проектов, связанных с искусственным интеллектом. ИИ уже незаменим в различных нишах: в рекламе, медицине, автомобилестроении, — благодаря возможности выполнять сложнейшие вычисления за короткое время, с высоким качеством. Со временем он придёт и в музыкальную индустрию и шоу-бизнес.

Искусственный интеллект и создание музыки

По мере развития искусственного интеллекта (ИИ) растет и его потенциал в креативных областях, одной из которых является музыкальная индустрия. Последним трендом, внесенным ИИ в музыкальную индустрию, является сочинение музыки с помощью алгоритмов машинного обучения. Несмотря на то, что «искусственной» музыке еще далеко до произведений великих классиков, алгоритмы уже успели добиться достойных удивления результатов. Данная статья обозревает некоторые существующие на январь 2019 года методы использования ИИ для сочинения музыки и различные по масштабу релевантные проекты: от стартапов до продуктов от технологических гигантов.

Содержание

2019: Warner Music заключила первый в истории контракт с исполнителем-алгоритмом Endel

27 марта 2019 года появилась информация о том, что Warner Music заключила первый в истории контракт с исполнителем-алгоритмом Endel, создающим музыкальные композиции под настроение пользователя в текущий момент. По условиям контракта, в течение года нейросеть Endel выпустит 20 уникальных альбомов. На март 2017 года пять альбомов уже доступны для скачивания в iTunes, при этом все альбомы созданы, как выражаются разработчики, «нажатием одной кнопки».

Endel разработан одноименным стартапом, сооснователем и исполнительным директором которого выступает игровой журналист россиянин Олег Ставицкий. По утверждению разработчиков алгоритма, Endel адаптируется к настроению пользователя и помогает ему в зависимости от поставленных задач — музыка нейросети помогает заниматься спортом, работать, засыпать или медитировать. При этом ИИ сам определяет, что требуется человеку в данный момент, анализируя множество параметров: время суток, геолокацию, погоду за окном, пульс и частоту биения сердца человека.

По мнению эксперта, дальнейшая трансформация рынка музыки и шоу-бизнеса будет происходить ускоренными темпами. Как известно, в Китае и Корее концерты полностью виртуальных исполнителей — уже обычное дело, а число фанатов «цифровых» кумиров исчисляется миллионами. Теперь эта тенденция, полагает аналитик, будет распространяться и на более консервативном западном рынке.

На пересечении двух растущих индустрий

Ожидается [1] , что в мировом масштабе доход компаний от использования искусственного интеллекта составит $1,2 трлн по итогам 2018 года, что на 70 процентов больше по сравнению с 2017 годом, а в 2022 году, по прогнозам, эти выгоды достигнут $3,9 трлн. И такой быстрый рост уже далеко ни для кого не тайна: искусственный интеллект можно назвать определяющей технологией 21-го века. Искусственный интеллект отличается от традиционных программ анализа данных своей способностью учиться распознавать шаблоны с помощью алгоритмов машинного обучения, а затем принимать автономные решения на основе этих шаблонов, будучи явно не запрограммированным на это.

В то же время, мировой рынок программного обеспечения для производства музыки, по прогнозам [2] , вырастет до $6,26 млрд к концу 2022 года. Ключевым фактором, который будет стимулировать рост индустрии, является растущий спрос на цифровой аудио-контент во всем мире. Аудио-контент, в свою очередь, набирает популярность в связи с недавно начавшимся ростом [3] потоковых (стриминговых) сервисов. Это приводит к увеличению числа исполнителей и музыкальных продюсеров, создающих музыкальный контент, что, в конечном итоге, увеличивает спрос на программное обеспечение для сочинения музыки. Алгоритмы ИИ уже несколько лет используются для определения музыкального вкуса и настройки персональных рекомендаций на потоковых сервисах, и на фоне всплеска исследований и инвестиций в технологию искусственного интеллекта в целом, произошел шквал активности [4] вокруг предмета сочинения музыки с помощью этой технологии. И по прогнозам [5] , ИИ сильно повлияет на процесс создания музыкального контента.

Примеры использования: крупные компании

NSynth Super (Google)

NSynth Super [6] является частью продолжающегося эксперимента под именем Magenta [7] : исследовательского проекта в Google, который “изучает, как технология машинного обучения может помочь деятелям искусства творить по-новому” и взглянуть на творческий процесс с другого ракурса.

Различные звуковые эффекты [8] , изменяющие частоту и амплитуду звука, электрические музыкальные инструменты [9] — всё это примеры других звучаний, созданных с помощью технологий. Теперь в список таких технологий можно включить и машинное обучение, потому что прогресс в этой области открывает нетрадиционные возможности для генерации необычного звучания.

Основываясь на прошлых исследованиях в этой области, Magenta создала NSynth (Neural Synthesizer (прим. Нейронный Синтезатор)) — алгоритм машинного обучения, который использует глубокую нейронную сеть для изучения различных характеристик звука, а затем создает совершенно другое звучание на их основе. По словам разработчиков [10] , вместо того, чтобы комбинировать или смешивать звуки, NSynth синтезирует звук, используя акустические качества оригинальных звуков. Благодаря этому можно получить звук, который является и звучанием флейты, и звучанием ситара, — всем сразу.

С момента релиза алгоритма NSynth, Magenta продолжала экспериментировать с различными музыкальными интерфейсами и инструментами, чтобы сделать вывод алгоритма NSynth более понятным для обывателя и воспроизводимым. В рамках этого исследования они создали NSynth Super в сотрудничестве с Google Creative Lab. Это экспериментальный инструмент с открытым исходным кодом, который дает музыкантам возможность создавать музыку, используя новые звуки, генерируемые алгоритмом NSynth из 4-х различных базовых исходных звуков. Затем прототипом опыта (на фото выше) поделились с небольшим сообществом музыкантов, чтобы лучше понять, как они могут использовать его в своем творческом процессе. Например, можно посмотреть [11] , как лондонский музыкальный продюсер Гектор Плиммер исследует звуки, сгенерированные NSynth Super.

Звуки, сгенерированные NSynth Super

Как пишут разработчики на своем сайте, “используя NSynth Super, музыканты имеют возможность исследовать более 100 000 новых звуков, сгенерированных с помощью алгоритма NSynth”.

Flow Machines (Sony)

Flow Machines [12] , (прим. дословный перевод — Потоковые Машины) — это научно-исследовательский проект, целью которого является расширение границ креативности человека в музыке.

Центральной частью этого проекта является Flow Machines Composer. Пока что это не робот с сознанием, который стремится выразить свои переживания с помощью музыки, но это набор сложных алгоритмов, которые получили свое знание и «чувство» музыки за счет изучения огромной базы данных (15 000 песен).

Чтобы написать песню с помощью Flow Machines Composer, сначала нужно задать стиль мелодии, а затем внутри системы происходит следующее [13] : алгоритм получает выборку песен с похожим стилем, запускает аналитическую модель, известную как цепь Маркова, которая идентифицирует шаблоны в этих выборках, а затем имитирует и изменяет их, чтобы создать свою собственную оригинальную композицию.

Читайте также:  В России будут функционировать «умные» остановки

Далее компьютер вычисляет вероятность определенных аккордовых прогрессий [14] , мелодических связей и ритмических рисунков [15] , и использует эти вероятности для создания правдоподобных и звучащих удачно (с точки зрения музыки) вариаций.

А вот на следующем этапе сочинения, система требует вмешательства человека. Пользователь может сохранить понравившуюся часть получившейся мелодии, и отказаться от остального, а затем снова запустить программу в ожидании следующих удачных сгенерированных вариаций. И так можно делать до тех пор, пока не появится мелодия и последовательность аккордов, которыми вы будете довольны.

В сентябре 2016-го года Flow Machines представили свету свой сингл “Daddy’s Car” — это достаточно оживленная поп-песня, основанная на выборке мелодий Beatles [16] .

Сингл “Daddy’s Car”

Примеры использования: стартапы

AIVA [17] (Artificial Intelligence Virtual Artist)— это стартап, базирующийся в Люксембурге и профинансированный в размере 768 000$ [18] , цель которого, как пишут разработчики на своем сайте [19] ,— это «дать возможность людям создавать персонализированные саундтреки с помощью искусственного интеллекта». По словам разработчиков, AIVA способна сочинять эмоциональные саундтреки для фильмов, видеоигр, рекламных роликов и любого другого типа развлекательного контента.

AIVA изучила искусство сочинения музыки, «прочитав» большую коллекцию музыкальных партитур, написанных композиторами (Моцартом, Бетховеном, Бахом и др.), и «создала математическую модель представления того, что такое музыка» [20] . Именно эта модель и используется для сочинения современной музыки. Стоит упоминания тот факт, что недавно AIVA стала виртуальным композитором, чьи работы были зарегистрированы в обществе авторских прав (SACEM [21] ). Одну из этих работ можно послушать ниже [22] .

AIVA – “Genesis” Symphonic Fantasy in A minor, Op. 21

Запущенный в январе 2017 года, австралийский стартап Popgun, как сообщается [23] , использует глубокое обучение для создания музыкального искусственного интеллекта, который сможет “дополнять” исполнителей в режиме реального времени.

Проектом Popgun стал искусственный интеллект Alice, который может предсказать, что музыкант будет играть дальше, подыгрывать ему, и даже немного импровизировать на музыкальную тему партитуры музыканта-человека.

Всему этому Alice научилась не сразу, а постепенно: лучше всего это отобразит видео [24] , которое показывает эволюцию технологии с января 2017 года по июль 2018 года. Видео начинается с того как искусственный интеллект Alice демонстрирует свои навыки прогнозирования: музыкант играет короткие мелодии на фортепиано, и Alice отвечает тем, что по ее предположению музыкант будет играть дальше.

Искусственный интеллект Alice может “дополнять” исполнителей в режиме реального времени

К августу 2017 года Alice была способна на импровизацию: т.е сначала она прослушивала последовательность нот, сыгранную человеком, а затем изменяла её, но при этом сохраняла главную музыкальную тему. К концу года Alice могла в различных стилях создавать оригинальные фортепианные композиции без участия человека.

На январь 2019 года Popgun имеет искусственный интеллект (или, лучше сказать, группу искусственных интеллектов), который может подыграть человеку на пианино, на басу или на барабанах (или на всем сразу). Если же мелодия снабжена человеческим вокалом, то разработанный алгоритм может сочинять подходящую инструментальную партию, а также сводить несколько музыкальных отрывков в один и производить финальную обработку звучания.

Будущее искусственного интеллекта для сочинения музыки

Всё это, конечно, удивительно, однако же имеющиеся технологии далеки от того, чтобы искусственный интеллект обладал способностью создавать что-то принципиально новое: машина может пропустить через себя огромный объём данных, и «понять» как можно сделать и как уже было сделано, но она не может загореться внезапным приступом вдохновения и воплотить свою творческую задумку. Мелодии, сочиненные искусственным интеллектом, все еще нуждаются в том, чтобы человек приложил к ним руку в отношении теории музыки, музыкального производства и оркестровки. Иначе же они будут звучать немного непривычно и достаточно сумбурно для человеческого уха.

Большой проблемой для искусственного интеллекта является понимание творческих и художественных решений (однако же иногда это является проблемой и для экспертов в области музыки). Кроме того, машины по-прежнему не обладают неуловимым творческим началом, являющимся жизненно необходимым для создания искусства. В целом, ИИ-эксперты согласны, что искусственный интеллект никогда не сможет заменить человека на поприще создания музыки, но, как упоминалось выше, сможет значительно изменить весь процесс.

2017: Выход альбома Тэрин Саузерн I AM AI в соавторстве с ИИ

Американская певица Тэрин Саузерн выпустила летом 2017 года сингл Break Free, который открывает её новый альбом I AM AI – «Я – искусственный интеллект». В официальном анонсе было указано, что весь альбом, включая этот трек, создается в соавторстве с неизвестным публике музыкантом Amper. Однако не вызывающий на первый взгляд никаких подозрений творческий дуэт оказался вовсе не тем, что можно было ожидать [25] .

Проект Amper – искусственный интеллект, результат совместной работы технических специалистов и профессиональных музыкантов. Он способен писать, исполнять и продюсировать музыку. Ампер – первый в истории искусственный интеллект, выпустивший собственный музыкальный альбом.

Ампер является уникальным в своем роде. ИИ, генерирующие музыку, существовали и до него, однако ранние модели работали по определенному алгоритму и итоговый продукт требовал серьезной переделки человеком, вплоть до изменения аккордов и целых частей мелодии, прежде чем мог считаться полноценным музыкальным произведением.

Ампер же не нуждается в помощи, когда создает собственные треки – он самостоятельно подбирает необходимые звуки и выстраивает структуры аккордов. Обрабатывающему полученную в итоге мелодию человеку остается только подкорректировать ритм и стилистику – все остальное Ампер делает сам всего за несколько секунд.

2016: Google запускает Magenta для создания музыки и видео нейронными сетями

В мае 2016 года компания Google даже запустила специальный проект Magenta, основная задача которого заключается в изучении креативных возможностей нейронной сети. Ученые планируют осваивать премудрости творческого процесса постепенно: сначала будет разработан алгоритм для создания музыкальных произведений. Затем настанет очередь видео и изобразительного искусства. Данные о результатах работы планируется размещать в открытом доступе на GitHub.

«Есть несколько причин, по которым я захотел сформировать Magenta, и одна из них заключалась в желании увидеть полноценные, честные и удивительные улучшения в искусстве глубинного обучения», – говорит руководитель проекта Дуглас Экк [26] .

Буквально через пару недель после открытия Magneta, была запущена программа по импорту музыкальных файлов MIDI-формата в систему TensorFlow с целью обучить искусственный интеллект созданию музыки. Однако пока результаты работы программы не столь удачны (хотя справедливости ради нужно сказать, что прошло еще не так много времени).

Ссылка на основную публикацию