plakhov: (Default)
Лесли Валиант получил Turing Award - самую почетную награду в области Computer Science. Ура!

Что сделал Валиант:
- создал PAC-learning framework
- показал (вместе с Вазирани), что NP полиномиально сводится к UNIQUE-SAT, а значит, и к PARITY-SAT; это стало первым шагом для доказательства теоремы Тода, а еще это источник некоторых несбыточных мечт для меня лично
- заметил, что умение считать перманент матрицы (почти то же, что детерминант, только все коэффициенты при слагаемых - плюс единицы) означает умение решать #P; это очень странно - интуитивно совершенно не ясно, почему эти две операции настолько отличаются по своей вычислительной сложности
- написал несколько отличных (к сожалению, боюсь, сильно недооцененных) работ о том, как некоторые вопросы теории эволюции или neuroscience (вот опять, как это по-русски? нейронауки?) оказываются на самом деле вопросами чистой вычислительной сложности, и как они решаются с этой точки зрения
- умудрился придумать noninteracting-fermion quantum circuits из чисто математических соображений, не понимая (по крайней мере, так утверждает Ааронсон), что он на самом деле придумывает

И наверняка еще кучу всего, о чем я не в курсе.
plakhov: (Default)
Как вы вообще живете без фенотропила? Что у вас взамен? Это ведь страшнее, чем без кофе!
plakhov: (Default)
Распространено мнение, согласно которому с увеличением программной системы число ошибок в ней обязано расти сверхлинейно (в зависимости от пессимизма носителя встречаются различные конкретизации, от "квадратично" до "экспоненциально"), и этот эффект неотвратим, как закон природы. Это мнение неверно.

Частично оно вызвано тем, что стандартный способ обеспечения отказоустойчивости, воспетый Кларком в "Свидании с Рамой", в софте плохо применим: три копии имеют большую отказоустойчивость, чем одна, только если речь идет об отказах оборудования, и то с оговорками.

Несколько раз я уже писал о том, как обходится этот "закон природы" в частных случаях (1, 2, 3, 4, 5), попробую обобщить.

Кроме abstraction leaks бывают и, назовем их так, abstraction sinks - методы, подсистемы, и алгоритмы, которые умеют "переваривать" ошибки и протечки соседей. К abstraction sink'у всегда можно подключить очередной "черный ящик", реализующий некоторый заранее обговоренный интерфейс. Работа системы в целом будет улучшаться, если этот "черный ящик" работает разумно, и не ухудшаться, если он ошибается (в том числе, если "заранее обговоренный" интерфейс оказывается протекающей абстракцией). После этого конкретные "чёрные ящики" могут писать эскимосские аутсорсеры, умные студенты, эволюционные процедуры, whatever, они могут быть сколь угодно "глючными" - лишь бы хоть иногда преодолевали порог полезности.

Здесь следует считать, что каждый черный ящик работает в собственной песочнице, т.е. не может, например, испортить память, или выбросить "неловимое" исключение. Если он примет управление и "упадет", начнет жутко тормозить, или зависнет, то можно продолжить работу так, как будто его никогда и не было. Как именно этого добиться в боевых условиях - вопрос интересный, но, надеюсь, понятно, что решаемый (если осознанно ставить себе такую задачу). Для простоты можно принять не очень реалистичное допущение, что каждый "черный ящик" запущен на собственном железе, и общается с abstraction sink'ом по сети.

Известно по крайней мере два типа abstraction sink'ов: машинное обучение ("черными ящиками" в этом случае являются отдельные features), и алгоритмы поиска и планирования ("черные ящики" - эвристики выбора "макроходов"). Ни тот, ни другой - не панацея, но их применение позволяет очень долго наращивать сложность системы уже после того, как она перестает помещаться у человека в голове, и оставлять её при этом работающей. Намного дольше, чем в привычных иерархическом или объектно-ориентированном подходах, где недопущение abstraction leak'ов критически важно.

Кое-какие современные задачи иначе и не решаются. Те, которые решаются именно так, по не до конца мне понятному совпадению чаще всего относятся к "искусственному интеллекту".

Для старых друзей: в геймдеве всё это практически не применимо. :)
plakhov: (Default)
Закрадывается подозрение, что "размышлялки" в ЖЖ писать бессмысленно. Нужны или статьи, или lytdybr, или анекдоты (в широком смысле слова). А то вот напишешь, скажем, про десктопный интерфейс. Наивно думаешь, что если кто-нибудь заинтересуется и начнет спорить, то человек этот более-менее как-то что-то понял, и выскажет здравые возражения. Например, что freeform input гораздо лучше подходит для "запросов", а "действиям" нужна предсказуемость. Может быть, скажет слово immutable. Или заметит, что, в отличие от веба, тут сложно накопить критическую массу проиндексированных действий, после которой система начнет срабатывать с необходимой полнотой. Или что необходимой массой, чтобы преодолеть потенциальный барьер, заставив разработчиков десктопного ПО жить по новым правилам, обладает только одна компания, а ей это не нужно. Или даже что-нибудь такое напишет, о чем ты сам не подумал!

Потом почитаешь реальные комментарии - и одно расстройство. Люди всерьез пишут, что freeform input невозможен, потому что вот Скрепка из Офиса всех бесила. А также командной строкой в *nix никто теперь не пользуется, а значит мысль отстой. Обидно как-то спорить на таком уровне, я лучше шоу Бенни Хилла посмотрю.

Нет, не буду сдаваться!
Новая пачка бездоказательных (за недостатком места на полях) размышлений )
plakhov: (Default)
Внезапно (для меня) оказывается, что CS-совместимый формальный аппарат, идеально применимый к задачам моделирования биологических систем, давно существует. Это старая добрая Сonservative logic.

Это модель вычислений, обладающая универсальной мощностью, и в то же время позволяющая выражать "законы сохранения" (и вообще концепцию "ресурсов") на самом базовом уровне.

Есть большие подозрения, что автоматы, построенные в такой модели, гораздо более естественным образом объединяются в иерархические системы, чем, например, классические конечные (DFA). И над ними проще запускать, я прошу прощения, эволюционные алгоритмы, т.к. консервативные автоматы (как это по-русски?) гораздо лучше выдерживают "малые изменения" без потери функциональности, и вообще маппинг внутренней структуры в вычислительную функцию у них более естественный и предсказуемый.

Очень надеюсь, что когда-нибудь найду время продемонстрировать это "на пальцах".
plakhov: (Default)
График

Пульс блогосферы по запросам усилия и достижения



0) конечно, всё это методологически абсолютно некорректно и тд и тп, но

1) виден тренд и его неожиданный перелом
2) видна четкая корреляция между "усилиями" и "достижениями"
3) усилия якобы приносят свои плоды уже через месяц-два, и даже этот, прямо скажем, крохотный интервал всё время сокращается
4) что случилось в ноябре-декабре 2006 года? а в апреле 2010?

В общем, хочется понять, что тут нарисовано "на самом деле". Кажется, не только меняющееся словоупотребление.
plakhov: (Default)
Запустили систему, над которой я работал последний год. За это время я успел её сначала полюбить, а потом возненавидеть (не переставая любить).

Технология "Спектр"

Здесь могу рассказать некоторые технические подробности, которые в официальный пост не вошли.

Система исследует запросы всех пользователей Яндекса и выделяет в них различные объекты
Тут произошла интересная вещь. Самым мощным источником информации для построения этой онтологии оказываются результаты выделения в массе поисковых запросов типичных "контекстов" и "концептов". Позже я ознакомился с работами A.Clark и некоторых других авторов, и оказалось, что этот сигнал неспроста. Подобный "парсинг" представляет собой некоторое (естественно, пока что крайне примитивное) приближение к тому, как человеческие существа учатся разговаривать на естественных языках. Такие вот 2017-дела.

Естественно! поверх всего этого работает много ручных правил всяких, фикслистов ("бензопила такая-то это не автомобиль" и т.п.), хаков, "чтение" википедии происходит по совершенно другим правилам, производится финальный проход совсем уж прямо алгоритмом Ахо-Корасик по заголовкам и снипетам готовых результатов в поисках спамоглупостей, и т.д. и т.п. Но все равно интересно, что из этого всего может выйти в прекрасном далёком.

поиск Яндекса максимизирует вероятность того, что человек найдет именно то, что искал
Это предложение описывает не столько результат, каким его хотелось бы видеть :), сколько процесс: используется честная вероятностная модель пользователя и его поведения, и выдача составляется таким образом, чтобы максимизировать некоторое матожидание в этой модели. Если обозначить количество url'ов на первой странице выдачи за N, то сложность этой процедуры экспоненциально растет с увеличением N (задача является NP-сложной, кроме шуток). К счастью, N, как правило, равно 10, к тому же простой "жадный" алгоритм для неё работает хорошо.

Эта вероятностная модель схожа с яндексовской метрикой pfound, о которой и Паша Карпович, и Илья Сегалович уже рассказывали в разных местах, и даже называется похоже. Она используется не только в текущем запуске, но и во многих других местах, где приходится иметь дело с тем, что разные пользователи хотят видеть в выдаче разные вещи (например, хоть как-то приближает к пониманию того, как определить, насколько уместны русскоязычные результаты в результатах украинского поиска). Я не могу сказать, что прямо изобрёл её (после некоторого количества размышлений такая модель кажется самоочевидной, так что её не раз переизобретали, а "о чем-то таком" в отделе качества поиска думали, наверное, вообще все), но всё-таки довел её до состояния named entity и популяризовал внутри компании.

И про название. Практически "всю дорогу" технология называлась "Разнообразием" ("Diversity"). Переименовать решили ближе к концу, когда после анонса во внутренней рассылке выяснилось, что "разнообразие" люди склонны понимать слишком буквально, и ожидают увидеть выдачу не сбалансированную по потребностям пользователей, а именно что максимально разнообразную. А "Спектром" при этом внутри называли совсем другую штуку. Ну что, всё как всегда.

Upd. Огромное спасибо прекрасной [livejournal.com profile] petsen, которая героически менеджила проект всё это время, проводила со мной ликбез насчёт всяких лингвистических тонкостей, уговаривала меня оставить одни безумные идеи и всерьез рассмотреть другие, ну и вообще подымала боевой дух. И Грише привет! :)
plakhov: (Default)
В школе нас учили, что бывают такие части речи, как "существительное", "прилагательное", "глагол", и еще несколько. В английском языке они примерно те же самые. Есть еще артикль, которого нет в русском языке. Зато в английском нет, скажем, деепричастий*.

Для того, чтобы догадка** Хомского о существовании универсальной грамматики оказалась верной, судя по всему, необходимо, чтобы список "частей речи", существующих во всех человеческих языках (не только в индоевропейских), оказался не слишком велик.

В недавней нашумевшей статье, авторы которой на шестидесяти страницах критикуют UG со всех возможных сторон, приводится и такое соображение: лингвисты, в основном, разговаривают на индоевропейских языках (чаще всего - по-английски), и склонны недооценивать размеры этого списка. Вот, например, пишут они, есть такие слова - идеофоны. Это слово-картинка, цель которого - передать цельное впечатление о некотором объекте, действии или событии. Например, во Вьетнамском есть слово хётхахётхай (если я правильно прочитал транскрипцию), означающее "тяжелое дыхание кого-то, кто паникует или очень спешит". И это не своеобразное сложное существительное, это именно отдельная часть речи. Например, нельзя построить фразу вроде "хётхахётхай выдавало его", в которой идеофон являлся бы подлежащим.

А в английском (и вообще в большинстве индоевропейских языков), пишут они дальше, идеофонов нет. И поэтому теории UG их полностью игнорируют. Воот, и тут мы неожиданно смотрим на список примеров идеофонов из разных языков мира (все - в моей кривой транскрипции; если тут есть ошибки, то ошибся именно я, а не те источники, откуда я это натырил)

Индийский язык мундари: рибуй-тыбуй, рава-дава
Вьетнамский: хётхахётхай, лоанцоан
Индейцы Навахо: дил дил, к`аз к`аз
Хинди: чамак-чамк
Тамильский: пада-пада, тиру-тиру

Ой-ой, как-то они подозрительно похожи! А нет ли, всё-таки, совершенно случайно, такого класса слов и в индоевропейских языках, но "замаскированного"?

Для затравки, вот вам английский: bling-bling. Но поговорить, конечно, хочется о русском языке, единственном, о содержимом которого я могу судить с какой-то уверенностью.

Вот вам по как минимум два идеофона в русском: туда-сюда и хуё-моё (упс, извините). Если поразмышлять, становится очевидно, что это отдельная часть речи - и не местоимения, и не междометия, и не наречия. Идеофоны в русском стремятся занять первое место в предложении или специально отделяются от остальных ничего не значащими "словами-паузами". Например, предложение 1 совпадает по смыслу с 2, а вот 3 - совсем о другом, и "туда-сюда" в нём - не идеофон, а два указательных местоимения

1) Туда-сюда, съездили, короче, но ничего не вышло
2) Съездили, короче, ну там, туда-сюда, но ничего не вышло
3) Съездили туда-сюда, короче, но ничего не вышло

Больше того: любая часто встречающаяся редупликация в русском языке стремится стать идеофоном, даже если была образована совершенно с другими целями. Сравните, скажем:
1) Мы поели шашлык и салатики
2) Мы поели, ну там, шашлык-машлык, салатики
3) *Мы поели шашлык-машлык и салатики
Правда ведь, третий вариант - ужасно "кривой", никто так не говорит?

Хм, а как же так получается, что в совершенно разных языках мира идеофоны удивительно часто получаются при помощи редупликации, и что слово, полученное таким способом, стремится вести себя как идеофон даже в тех языках, где идеофонов как бы "нет"?

Мне кажется, гг Эванс и Левинсон, приводя примеры того, как мало врожденного в нашем умении понимать речь, случайно привели очень мощный пример обратного.

Для тех, кто дочитал аж до этого места - вот вам для дальнейшего размышления:

На этой картинке изображены два предмета. Один из них называется "Буба", а второй "Кики". Какой из них какой? Согласно этой статье, около 95% людей Земли, вне зависимости от языка, отвечают на этот вопрос одинаково. А согласно другой их статье, среди аутистов (куда же без них, правда?) этот процент всего около 60.

Ну и совсем вкратце, а то на меня обидятся домочадцы (я занял ноутбук, на котором можно заняться таким количеством классных вещей, кроме нажимания букв!)

Зеркальные нейроны (mirror neurons) — нейроны мозга, которые возбуждаются и выполнении действия, и при наблюдении за выполнением этого действия другим существом. Присутствуют у приматов и у некоторых других млекопитающих, судя по всему, являются основой социального поведения, тем местом, где прячется самосознание, не работают (или работают с ошибками) у глубоких аутистов, играют центральную роль в изучении языка и т.д. и т.п.



--
*перевести их, конечно же, можно, но именно такой "разновидности слов" нет
**по определенным причинам, о которых я, может быть, напишу отдельно, у меня язык не поворачивается назвать эту догадку теорией, несмотря на все суммарные килогоды, потраченные на её разработку
plakhov: (Default)
Я сегодня видел рекламный ролик конференции поисковых оптимизаторов, и вот что подумалось.

Смогли бы мы объяснить умному человеку, жившему 10000 лет назад (тогда тоже жили очень умные люди), что такое деньги? Конечно, смогли бы. А что такое магазин? Наверное, это ненамного сложнее.

А что такое онлайн-магазин? Здесь уже, конечно, не обойтись без потери смысла, но, во всяком случае, концепция магазина, в котором можно рассмотреть потенциальную покупку через специальное окошко, позволяющее видеть на огромном расстоянии, и заказать доставку этой покупки, в голове вполне помещается. Условно скажем, что это второй уровень вложенности новых понятий.

Отлично, теперь выясняем, что такое поисковые системы (ограничимся "коммерческими" запросами). Это третий уровень вложенности. Теперь нам нужно рассказать, что такое SEO. Это четвертый. Затем мы рассказываем, что такое конференция SEOшников. И, наконец, что такое рекламный ролик для конференции сеошников. Получится, что нужно пройти как минимум шесть уровней причинно-следственных отношений, иногда весьма нетривиальных, пока мы не дойдем до понятного физического результата этих действий, выразимого в "биологических терминах".

Но это еще что. Оптимизатор может, например, купить себе кусочек ботнета, чтобы скачивать выдачу без капчи. Это же какой уровень вложенности вообще, как бы не десятый?

Судя по воззрениям некоторых футурологов, наверное, этим какие-то сверхгениальные люди должны заниматься. Ведь какая ужасная нередуцируемая системная сложность и тд и тп. Ох.
plakhov: (Default)
Здоровенный том. Не фантастика, "серьезная" футурологическая работа (настолько, насколько вообще дальняя футурология может быть серьезной). Общий смысл книги такой: "Что я могу с уверенностью сказать о далеком будущем? В общем-то, ничего". Ну и после этого всякое ничего в подробностях на 500 с лишним страниц.

Написано в 1963 году. С учетом скорости, с которой устаревают представления о будущем - в каменном веке. Тем удивительнее, что многое он угадал.

Есть отличные страницы про подход к созданию искусственного интеллекта, при котором работа мозга не имитируется, нет никакого "осмысления", никакой рефлексии, никакого символьного вывода. Лем уверенно пишет, что этот способ, скорее всего, окажется предпочтительнее в прикладных задачах, т.к. может привести к решению раньше, чем разум человеческого типа успевает понять, какая вообще задача перед ним стоит, и как её формализовать. Местами у меня крышу уносило - да точно ли это в шестидесятых годах написано, ведь описан современный machine learning один в один, те же поисковики как будто прямо по его рецептам разрабатываются. Мало того, он это направление назвал "выращиванием знаний", и кое-где фантазирует о неких "молекулярных деревьях", в массе растущих в какой-то фантастической песочнице. Ему, видимо, TreeNet приснился (или RandomForest), за сорок лет до появления* в реальности. Хотя сам Лем отрицает возможность существования "вещих снов" и прочей экстрасенсорики (ага, он и об этом успел написать).

Очень уважает нашего Шкловского и любимую книгу моего детства "Вселенная, жизнь, разум". Лем напомнил мне о загадке, которую я знал до этого, но как-то успел забыть: если внеземные цивилизации распространены повсюду (а непонятно, с чего бы делам обстоять иначе), то почему мы не видим никаких следов их деятельности? Не буду вдаваться в подробности (желающие - в википедию), но загадка нетривиальна, вопрос корректен, и является осмысленным: мы можем сказать, каких именно явлений мы не видим. При этом ответ нам не известен, что, видимо, свидетельствует о каком-то крупном пробеле в наших знаниях о Космосе. К чему приводят человека попытки ответить на этот вопрос, зависит, судя по всему, от склада ума. Кому-то чудится мгновенное и неотвратимое достижение некоторого непостижимого для нас божественного состояния, в котором всё, что нас волнует, интересно цивилизации не больше, чем взрослым - детские игрушки (WAIT, O SHI~, не та цитата) Кто-то, наоборот, видит бесконечные миры, непрерывно и неотвратимо уничтожающие себя (или друг друга) посредством тотальных войн, экологических катастроф или массовых самоубийств, как только появляется такая возможность. С вероятностью ровно единица (меньшей не хватит). Ну да.

Лем пишет, что предлагает свое решение, но оно настолько чудовищно туманное и обобщенное, что я его так до конца и не понял. Кажется, если говорить простыми словами, суть в том, что изготовить некую "Матрицу" (в терминах современной массовой культуры), в какой-то момент оказывается настолько просто и притягательно (по сравнению со всеми остальными альтернативами развития сверхцивилизации), что такое "закукливание" - тот самый вариант выбора с вероятностью единица. Ну не знаю. Меня это не очень убедило, честно говоря. Впрочем, Лем достоин уважения хотя бы за то, что писал об этом совершенно всерьез еще до прихода подобных концепций в массовую культуру (за 6 лет до Ubik'а, скажем).

Естественно, много где Лем сильно попадает пальцем в небо (с современной точки зрения). Он, например, считает, что существование машин из "биллионов элементов", работающих без ошибок (или хотя бы с терпимым их количеством), запрещено фундаментальными законами физики, статистики, и термодинамики, и делает из этого много далеко идущих выводов; однако же вот она, я на ней этот пост пишу, и их, в свою очередь, миллионами в Тайване штампуют из песка за копейки. Ну и вообще, в момент написания книги Лем еще ничего не знает о криптографии, об NP-полноте, о теориях естественного языка (а всё это имеет к тем или иным главам прямое отношение; нет, правда!) и о многих других достижениях науки, которые с тех пор стали общим местом.

Вообще, я как-то горд за человечество, что ли. Кажется, мы пока легко справляемся с тем, что его страшило - не истребили сами себя, справились с информационным взрывом (причем оно как-то "само собой произошло", ну, никто специально не командовал: "А давайте срочно создадим Интернет, поиск и википедию, чтобы справиться с информационным взрывом"), не ушли в астрал, изобретя дешевые и безвредные наркотики и порносайты, не исчез институт семьи и брака, и т.д. и т.п.

Даже не знаю, рекомендовать ли читать. Наверное, нет. Все-таки 50 лет для футурологии - не шутка, да и занудой он был, хоть и великим.

*как известно, периодическая таблица еще до Менделеева первым приснилась Пушкину, но он ничего не понял
plakhov: (Default)
[livejournal.com profile] dabino напомнил про subj.
Искренне завидую тем, кто найдет время поучаствовать. Игра простая (чтобы понять правила, достаточно посмотреть демонстрационное видео), интересная (про межпланетные войны), неглупая. Пошаговая, с полной информацией, но классический минимаксный перебор не пройдет: на каждый "полуход" придется перебрать очень много разных возможных действий.

Я вот прямо об этом защищал диссертацию, которую никто нигде не применяет, к сожалению, потому что Россия что-то передумала готовиться к атомной войне с участием Скайнета, Периметра и ОБЧР.

В контесте я бы воспользовался плодами науки, и сделал бы вот что.
Borg cube своими руками )

Сим победиши
plakhov: (Default)
По рекомендации, которую в комментариях оставил [livejournal.com profile] _iga, я прочитал книжку Ли Смолина "Неприятности с физикой: Взлет теории струн, упадок науки и что за этим следует". Книжка сама по себе очень интересная и познавательная, всячески рекомендую, но сейчас не о ней. Меня буквально поразило описание одного исследовательского сообщества (не буду говорить, какого, потому что сейчас это неважно). Поразило тем, что вокруг меня (не в географическом смысле), оказывается, есть по меньшей мере две группы "мыслителей", каждая из которых полностью подпадает под все пункты. Описание стоит привести полностью.

1. Потрясающая самоуверенность, приводящая к ощущению обладания правом и принадлежности к элитному сообществу экспертов.

2. Необычно монолитное сообщество с сильным ощущением консенсуса, подкрепляемого доказательствами или нет, и необычной однородностью взглядов по открытым вопросам. Эти взгляды кажутся связанными с существованием иерархической структуры, в которой идеи нескольких лидеров диктуют точку зрения, стратегию и направление развития области.

3. В некоторых случаях ощущение отождествления себя с группой, похожего на отождествление по религиозному вероисповеданию или политической платформе.

4. Сильное ощущение границы между группой и другими экспертами.

5. Безразличие и незаинтересованность в идеях, мнениях и работах экспертов, которые не являются частью группы, и преимущество для общения только с другими членами сообщества.

6. Склонность интерпретировать свидетельства оптимистичным образом, верить в преувеличенные или некорректные формулировки результатов и игнорировать возможность, что теория может быть не правильной. Это связано с тенденцией верить, что результаты верны, поскольку в них имеется "широкая уверенность", даже если никто не проверил (или даже не видел) самого доказательства.

7. A lack of appreciation for the extent to which a research program ought to involve risk

(Перевод последнего пункта в русском издании очень неудачный, я тоже не смогу сказать так же красиво, как в оригинале, поэтому лишь примерно передам его содержание, как я его понимаю: "недооценка того, что программа исследований должна достаточно сильно угрожать теории")

Сам Смолин дальше сводит всё это к давно известному социологам феномену "группового мышления" (groupthink), но, по-моему, он ошибается. Дело в том, что groupthink пересекается с данным феноменом только частично, тогда как известные мне (но неизвестные Смолину в момент написания книги) группы описываются именно этими семью пунктами, с гораздо более высокой точностью.

Я, конечно, не буду здесь писать, кого именно я имею в виду, но те, о ком пойдет речь, надеюсь, себя узнают.

Во всех трех случаях, включая случай Смолина, который я, к сожалению, пересказываю с чужих слов, речь идет о теориях красивых, математизированных, технически сложных. (Слова "теория" и "эксперимент" здесь и дальше следует брать в кавычки, поскольку в одном из трех случаев речь не совсем о науке). Овладеть любой из трех теорий - непростая задача, получать результаты, которые признаются сообществом интересными - еще сложнее. Теории эти гибки и универсальны, а их непротиворечивость - фундаментальное свойство математической конструкции, лежащей в основании. Но именно поэтому у них оказывается крайне мало проверяемых следствий. Всегда можно доработать теорию так, чтобы новые "экспериментальные" результаты, приходящие из других направлений, представлялись даже не просто объясняемыми, но вообще следствиями старых, "недооцененных", работ. Кажется, именно поэтому теории воспринимаются как свежие и актуальные, хотя им, вообще-то, десятки лет. Теории эти редко применяются на практике (стоит посмотреть на любой из двух показателей: какой процент публикуемых результатов используется в других областях науки/технологии, и, наоборот, какой процент результатов в смежных областях науки/технологии использует достижения нашей теории). Наконец, в них раздражающе сложно включить "бытовые" ситуации, для этого требуется как минимум некое изящное и изощренное кун-фу.

Я думаю, это и есть основные причины того, что сообщество становится таким, каким оно описано выше.

И вот что я вам скажу, дорогие мои. Посмотрите внимательно, не узнаёте ли вы себя или своих коллег в этом описании. И если узнаете - подумайте, пожалуйста, надо ли оно вам, тех ли вы слушаете людей, той ли дорогой идёт ваша мысль. Потому что хочется, чтобы умные люди занимались не групповым элитарным самосозерцанием, а чем-нибудь более полезным.
plakhov: (Default)
Привет всем!
На днях я наконец-то завершил великую физическую теорию, объединяющую не только ОТО с квантовой физикой, бозоны с фермионами, а фундаментальные струны с эмержентными, но также и проблему существования самосознающего разума с онтологическими основаниями Вселенной, бритву Оккама - со структурой хаоса, и, главное, энергию (она же материя) - с деньгами.

К сожалению, теория эта слишком обширна, чтобы поместиться на полях этого блога, поэтому я приведу лишь описание одного из её следствий, проливающего новый свет на загадку столь великую, что вы, возможно, вообще не считали её загадкой.

Вот она: почему, в самом деле, энергия и материя сохраняются? Мы привыкли к этому с детства, а значит, вопрос "почему" может показаться вам детским и наивным - и все же его стоит задать!

У этой загадки две зеркальных составляющих: во-первых, почему нет процессов, в ходе которых энергия исчезает в никуда? И почему, наоборот, мы не можем создавать её из ниоткуда? Ниже я детально опишу первую часть ответа, а вторую лишь очерчу в паре предложений. Рассуждения эти, кстати, частично ответят и на иной вопрос, кажущийся абсолютно не связанным с нашей загадкой, но почти столь же великий, и мучивший поколения футурологов: почему молчит Вселенная? Где эти мириады сверхцивилизаций, которые превосходят нас в развитии на миллионы лет, где астрочудеса, где сферы Дайсона и кольца Нивена?

Ответ прост: когда Вселенная была молода, количество разнообразных видов энергий и материй, доступных в ней, значительно превосходило существующие ныне. Что еще важнее, некоторые из них позволяли творить чудеса (по крайней мере, по меркам нашего убогого и нищего времени): летать быстрее света, зажигать и гасить звезды, создавать компьютеры, решающие NP-полные задачи, наконец, актуализировать квантовое бессмертие, доводя вероятность вечной жизни до единицы, а местами даже и выше. К сожалению, эти виды энергий не обладали упомянутым свойством сохранения, и сверхсущества, жившие за миллиарды лет до нас, полностью потратили их. Так они и испарились, подобные семейным финансам в руках иных неразумных жен. Нам же ничего не осталось, кроме того единственного вида энергии, который, по чистой случайности, тождественно сохранялся во всех процессах - увы, единственный из целого континуума её видов, в своем скорбном одиночестве подобный нулю в окружении вещественных чисел...

Теперь вы можете попробовать самостоятельно ответить и на второй вопрос: в таком случае, почему же нет вечных двигателей первого рода, почему не получается "напечатать" себе еще немного "денег"? Этот вопрос неверен. На самом деле - получается. Когда вы осознаете эту возможность, для окончательной разгадки вам останется вспомнить лишь одно слово.

Это слово - инфляция.

На сегодня всё, слишком занят подготовкой статьи для arxiv.org

С уважением, искренне ваш, др Эндрю Плахус, ПхД.
plakhov: (Default)
Если вы знаете о крупных достижениях в machine learning, computer vision, теории natural language acquisition и других областях AI за последние пять-десять лет, оставьте, пожалуйста, здесь ссылку на это.

Чтобы понятно было, о чем речь, какие-то примеры:
- Locality-sensitive hashing (1998) - алгоритмы, позволяющие вести быстрый поиск "самых похожих" изображений, звуков и вообще "ситуаций" в сколь угодно больших словарях
- Gradient boosting (1999) - текущий де-факто стандарт для машинного обучения
- Viola-Jones framework (2001) - первое realtime распознавание "естественных" объектов (лиц, людей и т.п.)

Но это десять лет назад всё. А позже появилось что-нибудь сопоставимых масштабов? Ничего на ум не приходит. Может быть, я чего-то не знаю?

untranslit

Jul. 1st, 2010 03:53 pm
plakhov: (Default)
Пишут, что научились расшифровывать древние языки:
http://web.mit.edu/newsoffice/2010/ugaritic-barzilay-0630.html
(пишет, в частности, [livejournal.com profile] vitus_wagner)

Это не совсем расшифровка языка. Это возможность, зная русский язык, понять вот такой текст:

Poslali amerikancі shpiguna na Ukraїnu: navchili movі, odjagli v nacіonal'nij odjag. Jde vіn selom.
- Dobrogo ranku, dіdusju!
- Zdrastuj, amerikans'kij shpigune!
- Dobrogo ranku, babusju!
- Zdrastuj, amerikans'kij shpigune!
- Dobrogo ranku, hlopchiku!
- Zdrastujte, djadju amerikans'kij shpigune!
- Da zvіdki zh vi uzjali, wo ja amerikans'kij shpigun?
- Bo ti, sinochku - negr.

(анекдот рассказал [livejournal.com profile] ygam)
Мой пример даже чуть сложнее того, что они сделали для угаритского языка: научились сопоставлять алфавиты (при условии, что оба фонетические, и что такое сопоставление возможно провести взаимно-однозначно, что неверно уже в случае транслита), и научились после этого находить в тексте "знакомо выглядящие слова" (умильно выглядит оговорка - “Of those that are incorrect, often they’re incorrect only by a single letter, so they’re often very good guesses” - а чего они еще хотели-то с этим методом?)

Так что пока не AI.

2017

Jun. 3rd, 2010 10:12 am
plakhov: (Default)
Не то завтра, не то в субботу (зависит от погоды) SpaceX запускает свою новую ракету.
Согласно их сайту, вывод с ее помощью на околоземную орбиту будет стоить около 5000 долларов за килограмм, и если это правда, это уже намного выгодней, чем любое предложение любого конкурирующего с ней государства.

Если кто не знает: SpaceX - первая частная компания, успешно осуществившая коммерческий запуск спутника на орбиту. Произошло это меньше года назад. Уши NASA там, конечно, торчат и в смысле background'а участников, и в смысле финансирования, но все-таки она действительно не государственная, ни в каком разумном смысле этого слова.

Они молодцы, не пытаются устраивать революцию, двигают вперед эволюцию. Никаких дирижаблей, подводных катапульт, гигантских самолетов, воздушных змеев etc.

Традиционно хочу заметить, что в SpaceX работает менее 1000 человек. Можете сравнить с размером компании, в которой работаете вы.

Я буду держать за них пальцы скрещенными.
plakhov: (Default)
[livejournal.com profile] g_e_n_i_e, объясни мне вот что. Вы там в Мюнхене делаете (точнее, сделали уже) систему симуляции плюс-минус любых механизмов, а также переводчик с языка чертежей в язык этих самых механизмов и обратно. Называется это САПР, ну прямо как в двадцать раз более простые и тупые системы пятнадцатилетней давности. Правильно я излагаю?

Кто мешает добавить в это всё простейший генеративный искусственный интеллект? Задал ему цель (хочу получить механизм, ведущий себя так-то, не дороже того-то), задал ограничения (есть такие и такие стандартные узлы, такие и такие материалы, стоят столько то и тп), а он производит тупой перебор в пространстве возможных состояний, и в итоге говорит: вот, барин, ваш сверхзвуковой самолет новейший смеситель для ванной. Ну да, для мало-мальски сложных механизмов перебор получится очень большой, ну так сокращать и оптимизировать в таких задачах все умеют сорок лет, если не больше, уже и в учебниках написано. Да хоть прямо алгоритм AVST туда, пусть перебирает в пространстве частичных решений, задаваемых "человеческими" эмпириками. Ну не верю я, что жалкие человеки делают это лучше, нет там никакого особенного пространства для "гениальности", нужно знать много, и считать упорно; и то, и другое компьютеры лучше людей делают.

Где моя технологическая сингулярность, я тебя спрашиваю?!

(Если кто-нибудь другой может дать внятное объяснение, сделайте это, пожалуйста, а то Андрюха, кажется, нечасто ЖЖ читает)

dis is wot?

May. 8th, 2010 12:01 pm
plakhov: (Default)
"Это всеобщая мобилизация. Зона евро — это единая Европа, и мы не позволим спекулянтам разрушить то, что создавалось десятилетиями"! - заявил Николя Саркози.

(via [livejournal.com profile] __rico)
plakhov: (Default)
1 апреля я не шутил.

Но "на халяву" применить его теорию для общего случая пока не получается*. Решил начать с разминки, с малого веса. Строю определение "регулярных языков", носителем которых являются 2d-изображения (а не строки), и параллельно - адаптацию определения "контекста" и "свертки" для этого случая. Цель - сделать это таким образом, чтобы "регулярные языки" и "языки с конечной решеткой концептов" совпали (как и в случае строк).

*Проблема состоит в том, что если определить "контекст" естественным образом, как множество точек, дополнение которого выпукло, то операция свертки окажется не всегда определена. В принципе, это можно объявить "нестрашным", и считать, что свертка области и контекста несовпадающей формы дает фиксированный формальный и "неграмматичный" результат. Но, по-моему, это плохо (как минимум вычислительно, необходимых концептов сразу становится во много раз больше). Можно определять "контексты" как дополнения областей фиксированной формы, тогда неожиданно получается, что такими областями должны быть прямоугольники, а "свертка" должна включать в себя возможное масштабирование по осям. Все это не то, чтобы плохо для задачи middle AI, первое весьма приятно в вычислительном смысле, а второе - в смысле распознавания изображений; но как-то странно и подозрительно, что подобные концепции - прямоугольники и масштабирование - возникают уже на столь фундаментальном уровне.
plakhov: (Default)
Этому вы, конечно, не поверите; впрочем, я и не прошу воспринимать нижеследующий текст буквально (как и предыдущий, кстати).

Об одном интересном случае психического заболевания )

Profile

plakhov: (Default)
plakhov

2017

S M T W T F S

Syndicate

RSS Atom

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated Jul. 25th, 2017 06:53 pm
Powered by Dreamwidth Studios