Цены на продукты питания в 2012 г.

На 1 тысячу российских рублей в марте 2012 года магазине-ВНИИСОКовском филиале сети «Пятёрочка» я однажды купил следующие продукты (в скобках указана примерная цена за 1 шт., так как точного чека не сохранилось):

  • 9 сладких рулетов (≈18 руб.);
  • 4 вафельных торта (≈28 руб.);
  • 1 пачку пастилы (≈20 руб.);
  • 2 бутылки энергетического напитка «Power Torr» (≈21 руб.);
  • 2 пачки готовых замороженных ужинов «Сытоедов» (≈100 руб.);
  • 20 йогуртов (≈6,5 руб.);
  • 2 плитки шоколада (≈12 руб.);
  • 1 пачку кукурузных палочек (≈12 руб.);
  • 1 пачку крабового мяса (≈20 руб.);
  • 5 банок консервированных овощей (≈25 руб.);
  • 10 яиц (≈30 руб. за все)
  • 2 литра молока (≈25 руб.)
  • 2 пачки лапши «Доширак» (≈18 руб.)
  • 6 мелких пачек лапши (≈6 руб.)
  • 1 пакет печенья (≈15 руб.)
  • 1 упаковку мешков для мусора (≈20 руб.).

Итого: 1 040 руб. Если выкинуть этот гадкий энергетический напиток «Power Torr», то получится ровно 1 000 руб.

Следует отметить, что все эти продукты были довольно инфериорного качества (то есть пахли вкусно, но на вкус казались искусственными или напичканными консервантами). Зато данный эксперимент по закупке пищи является отличной прививкой от нытья «голодающих»: он наглядно демонстрирует, сколько всего съедобного можно купить на одну тысячу рублей. Предположим, что качественные продукты стоят аж в полтора раза дороже (на 50 % выше их цена): это достоверное допущение, так как, скажем, даже дешёвое печенье безвредно, как и консервированные овощи и замороженные ужины «Сытоедов», то есть за них можно больше и не платить, а за лапшу и йогурты можно отдать больше (хотя грубые и полезные макароны из пшеничной муки стоят 16 рублей за пачку, которой хватает на много раз, что является хорошей экономией). Итак, если уплатить за все вышеперечисленные продукты не тысячу, а полторы тысячи, выбрав марки заведомо хорошего качества, то можно очень долго, очень счастливо и вполне сбалансированно питаться этим около двух недель. 3 000 рублей в месяц на еду — это необходимо и достаточно, чтобы не оплачивать гастроэнтерологические процедуры в более старшем возрасте. Три тысячи в месяц — это 100 рублей в день. 100 рублей в день на еду найти может каждый. Даже самый тупой гражданин России.

Вывод: не нойте, заработайте 3 000 за месяц, питайтесь в своё удовольствие с пользой и не жалуйтесь. Если нужно платить за квартиру пять тысяч, работайте 8 часов в день 5 дней в неделю, и работодатель не будет иметь права заплатить вам менее 11 700 рублей.

Хорошая жена и макароны

— Что должно лучше всего удаваться хорошей жене?
— Лобзанья и лазанья.

Есть разные частицы в физике: бозоны (в честь Бозе), фермионы (в честь Ферми), а если какой-нибудь русский учёный по фамилии Макаров откроет новый вид частиц, то их будут называть макароны.

Шарада

Чтоб смысл определить в звучащем сходно слове,
Его я написанье подсмотреть полезу;
А «ом» мне убери — и вот болезнь я крови,
Нехватка иль гемоглобина, иль железа.

 

Подсказка: эту шараду надо загадывать вслух.

Шаланды, полные κεφάλι

Q: What do sailors fondle while sitting in a privy?
A: Nautic bits.

В греческом корень «ποδ» («под», «пед», «пиед») — это «нога». Поэтому «велосипед» — «быстрые ноги», «подагра» — «ножной капкан», «педаль» — что-то для ноги. В английском «pod» — «ножка», «опора», «tripod» — «треножник», во французском «pied» — «нога», «пьедестал» — «подпорка».
Вопрос: связано ли с греческим корнем «ποδ» слово «подошва»?

Готов поспорить, что почти никто не знал, что слова «велосипед» («быстрые ноги») и «педаль» (лат. «ножной») имеют сходную этимологию.

«κεφάλι» («кефали») — это «голова» по-гречески. Динозавры эуплоцефал («вооружённая голова»), пахицефалозавр («ящер — толстый череп») — одни из самых известных. Есть такое семейство рыб — «Mugilidæ», по-английски — «Mullet», по-немецки — «Meeräschen», по-французски — «Mulet», «Muge». И только по-русски эта рыба называется «кефаль» (шаланды полные которой). Почему кефаль? Ничего особенного в строении её головы нет. Это этимологическая загадка, которую я пока не разгадал. Может, читатели смогут?

Зная английский, купили бы «Вискас»?

Все мы знаем, что «Whiskas» (до 1988 г. — «Kal Kan», что, согласитесь, не очень благозвучно) — это один из крупнейших производителей кошачьих кормов. Ещё мы знаем, что английский язык настолько компактный, что двухсложные слова-омонимы могут иметь более пяти вариантов написания, не говоря об односложных. Ранее мне было приятно сравнивать себя с котами, с их мягкостью, тёплостью, пушистостью, да и общаться с чужими котами приходилось часто. Даже собственные бакенбарды (англ. whiskers) напоминали об этой незримой связи с фелициями, наделёнными вибриссами и бородой по всей голове. Однако недавно были обнаружены ещё два слова, звучащие как «вискас» по-английски.

Whiskers: ['wɪs kəs]
n. long stiff tactile bristles or hairs that grow near the mouth and elsewhere on the head of most mammals; vibrissæ.
Бакенбарды, усы, вибриссы
сущ. длинные, жёсткие, тактильные волоски или щетинки, растущие вокруг рта или на других частях головы у большинства млекапитающих.
Viscus: ['vɪs kəs]
n. one of the organs in the great cavities of the body of an animal; often applied to the organs contained in the abdomen.
Внутренность
сущ. один из органов, расположенных в полостях тела животного; часто под В. подразумевается содержимое брюшной полости.
Viscous: ['vɪs kəs]
adj. of a glutinous nature or consistency; sticky; thick; adhesive; having relatively high resistance to flow.
Вязкий
прил. липкий, клейкий, испытывающий большое сопротивление при перетекании, тягучий, густой по консистенции.

whiskas whiskers viscus viscous

Что самое интересное, «Whiskas» — это удивительно точное название для корма: для обладателей вибрисс, состоящий из потрохов (мясокостную муку и требуху в составе сухих и влажных кормов никто не отменял), а также вязкий по консистенции (касается сочных кормов в пакетиках). Vive la langue anglaise!

 

«Монти Пайтоны» исполняют восхитительный скетч с шарадами, пользуясь компактностью английского.

И стихотворение с подобной омонимией:

Eye have a spelling chequer,
It came with my Pea Sea.
It plane lee marks four my revue
Miss Steaks I can Nazi.

Eye strike the quays and type a word
And weight four it two say
Weather eye am write oar wrong
It tells me straight a weigh.

Eye ran this poem threw it,
Your shore real glad two no.
Its vary polished in it’s weigh.
My chequer tolled me sew.

A chequer is a bless thing,
It freeze yew lodes of thyme.
It helps me right all stiles of righting,
And aides me when eye rime.

Each frays come posed up on my screen
Eye trussed too bee a joule.
The chequer pours o’er every word
Two cheque sum spelling rule.

Трагедия точки с запятой

Почему-то в наше время разучились пользоваться точкой с запятой. Болваны. Запятая нужна для связи членов предложения и более близких частей предложения, а точка с запятой нужна для того, чтобы показать, что эти две сочинённые части связаны, но по структуре и смыслу они носят антагонистический или просто разнородный характер.

  • Можно делить отрезки пополам, если обе половины открыты, то одна точка окажется между. Плохо! При первом прочтении возникает ощущение: можно делить, если половины открыты. Всё. И только потом мы видим, что это совершенно другая конструкция. Для обозначения этой совершенно другой конструкции нужно вставить или слово, или точку с запятой.
  • Можно делить отрезки пополам, и если обе половины открыты, то одна точка окажется между. Отлично!
  • Можно делить отрезки пополам; если обе половины открыты, то одна точка окажется между. Отлично!

Советы наборщикам, часть 1

Данный набор советов составлен по прочтении студенческих лекций по математическому анализу, набранных делающим большие успехи в наборном деле Анатолием Евгеньевичем Ширыкаловым.

PDF — это аббревиатура (Portable Document Format), поэтому пишется прописными. Если имеется в виду файл с расширением .pdf (расширения регистроНЕзаВиСИмЫ), то можно писать по-разному: pdf-файл, файл PDF, PDF-файл, .pdf-файл, .PDF-файл (хотя последние два варианта смотрятся хуже). Более громоздкие конструкции: файл типа PDF, файл типа .PDF, файл с расширением .PDF/.pdf... Необходимо учитывать, на что ставится акцент: на то, что это тип Portable Document Format с разметкой, открывающийся одинаково везде, или на то, что у файла должно быть расширение .pdf.


Топонимы-прилагательные пишутся со строчной буквы: французский, европейский, российский. Исключения — устойчивые имена собственные: Русское собрание, Английская революция. Следует заметить, что, как правило, в составных названиях организаций и событий капитализируется только первая буква: Вторая мировая война, Английская революция, Великая французская революция. Опасно уподобиться англоговорящим и «англопишущим», которые согласно своим правилам всегда географические прилагательные употребляют с заглавной буквы: «I am a Russian typesetter who is an expert in German traditions». Похвально, когда человек читает зарубежную литературу, но если он потом суётся с заморским свиным рылом в пряничный отдел, то, значит, он не только плохой переводчик, но и плохой знаток своего родного языка.


(Из доказательства эквивалентности двух формулировок аксиомы Дедекинда.) Пусть \(A,B\) — любые подмножества \(\mathbb R\), такие, что \(\forall a\in A,\ \forall b\in B \mspace{11mu} a\leqslant b\), и пусть \(\tilde B=\{\tilde b\in \mathbb{R}\colon \forall a\in A\ \, a\leqslant\tilde b\}\), \(\tilde A= \{\tilde a\in \mathbb{R}\colon \exists a\in A\colon a\geqslant \tilde a\}\).

К сожалению, в LaTeX по умолчанию нет пробела, который был бы шире обыкновенного («\ »), но у́же em-space («\quad»). Он был бы очень полезен в конструкциях вида «\(\forall a\in A,\ \forall b\in B \mspace{11mu} a\leqslant b\)». Сравните:

  • \(\forall a\in A,\ \forall b\in B \ a\leqslant b\) — слишком узко («\ », равный 1/3em, или 3.33pt для шрифта размером 10 пунктов);
  • \(\forall a\in A,\ \forall b\in B \mspace{11mu} a\leqslant b\) — в самый раз («\mspace{11mu}», где 1mu=1/18em);
  • \(\forall a\in A,\ \forall b\in B \quad a\leqslant b\) — слишком широко («\quad», где \quad=\hskip1em).

Выходит, что обычный пробел равен 6/18em (плюс-минус клей, позволяющий ему принимать значения от 4/18em до 9/18em). Напомню, 18mu=1em. В формулах, где имеется в виду, что «для такого-то условия ↑ то-то равно тому-то», на месте знака ↑ должен быть пробел, позволяющий точно отделить одну группу символов от другой. Это и логично: запись «\forall a\in A,\ \forall b\in B \mspace{11mu} a\leqslant b» сразу становится ясной, так как между однородными условиями должен быть меньший пробел, чем между подчинёнными грамматическими основами. Всем математикам рекомендуется создать краткий макрос или даже переопределить какую-нибудь ерунду вроде «\;», чтобы выдавал пробел шириной 11/18em.


  1. Если распространённое/развёрнутое (не помню) определение стоит после определяемого слова, то оно обособляется. Если перед, то нет.
    Машина, \(\langle\)переехавшая меня\(\rangle\), скрылась.
    \(\langle\)Переехвашая меня\(\rangle\) машина скрылась.
  2. Союз «такой ..., что» требует наличия запятой перед «что».
    Возьмём такой икс, что всем иксам икс! Возьмём такой икс, что все игреки задрожат!
    NB Если перед однородными членами после обобщающего слова стоит уточняющая конструкция «такие что», то тогда запятая ставится только перед всей конструкцией. Другое дело, что я не могу придумать ни одного примера, чтобы «такие что» было уточняющим словом. «Такие как» — это легко («туристы посетили старинные города, такие как Суздаль, Владимир, Ростов»). «Такие что» — это почти невозможно.
  3. Правила 1–2 отлично сочетаются.
    Я люблю \(\langle\)такой| перчёный соус|, что у окружающих глаза слезятся\(\rangle\).
    Я люблю перчёный соус, \(\langle\)такой, что у окружающих глаза слезятся\(\rangle\).

Как проверить, является ли какая-нибудь конструкция вводным словом? Где ставить запятые? Попробовать его выкинуть вместе с окаймляющими запятыми. Если можно это слово выкинуть и вставить, то слово вводное.

  • Он любит куриное мясо, а значит, и мясо вообще. «А значит» — вводное слово. Проверка: «Он любит куриное мясо и мясо вообще». Смысл не исказился после выбрасывания «, а значит,»? Да почти нет. Всё нормально.
    Контрпримера не будет. Если где-то написать «, а, значит,», то вводное слово «, значит,» можно будет выкинуть. Союз «а» имеет противительное значение, которое не согласуется с логическим следованием вводного слова «значит». Вывод: «а значит» — одно вводное слово.
  • Он любит куриное мясо и, следовательно, мясо вообще. «Следовательно» — вводное слово. Перед союзом «и» запятую ставить не нужно. Проверка: «Он любит куриное мясо и мясо вообще». Знаки препинания в редуцированном предложении стоят верно, поэтому можно в него безболезненно встраивать конструкцию «, следовательно,».

Будет лучше, если в определениях, сделанных курсивом, не будет переменных, выглядящих так же, как однобуквенные служебные слова (\(a\), \(c\), \(o\), \(u\), \(y\)). Правда? Это негласное правило, которого в книгах наверняка нет; приходит это правило в голову после того, как человек с первого раза не может прочесть некоторые определения. Почему? Чтобы отличать букву «c» от переменной \(c\), люди договорились делать переменные курсивом. А если всё курсивом: и текст, и переменные? Надо тогда сделать так, чтобы читатель сразу понял, где переменная, и не использовать двояко читающихся символов.

  • Пусть \(A\subset\mathbb{R}\), \(a\) — наибольший (\(\max\)) элемент \(A\), если (1) \(a\in A\); (2) \(\forall \tilde a\in A\mspace{11mu}\tilde a\leqslant a\). Плохо!
  • Пусть \(A\subset\mathbb{R}\); \(a\) — наибольший (\(\max\)) элемент \(A\), если (1) \(a\in A\); (2) \(\forall \tilde a\in A\mspace{11mu}\tilde a\leqslant a\). Средне!
  • Пусть \(A\subset\mathbb{R}\); \(m\) — наибольший (\(\max\)) элемент \(A\), если (1) \(m\in A\); (2) \(\forall \tilde m\in A\mspace{11mu}\tilde m\leqslant m\). Идеально!

Следствие №1: точка с запятой может помочь там, где замена переменных нежелательна. Следствие №2: если есть возможность перестроить предложение во избежание двоякого прочтения, то лучше это сделать.


Краткие причастия — одно Н. Краткие прилагательные — два Н.

  • Девушка ограниченна (прил.), нелюдима и замкнута.
  • Множество ограничено (прич.: чем-то оно да ограничено), непусто и замкнуто.
  • Девушка образованна (сама по себе, никто её ни от чего не образовал).
  • Прямая образована путём перечения двух плоскостей.

Совет №1. Если после слова можно подставить «кем/чем?», то это, скорее всего, краткое причастие. Прямая образована... плоскостями. А девушка чем образованна? Ничем, она сама по себе образованна и воспитанна; она не может быть образованна «чем».
Совет №2. Смотрите на контекст.

  • Девушка воспитанна, умна и обаятельна. (Краткое прилагательное.)
  • Девушка воспитана мачехой. (Краткое причастие.)

Три примера корректной расстановки знаков препинания и заглавных/строчных букв в скобках (на основе правил из «Справочника издателя и автора»).

  1. То есть \(\exists c\in\mathbb{R}\colon \forall n\in\mathbb{N} \mspace{11mu} c\in[a_n; b_n]\). (Для интервалов неверно!)
  2. То есть \(\exists c\in\mathbb{R}\colon \forall n\in\mathbb{N} \mspace{11mu} c\in[a_n; b_n]\) (для интервалов неверно).
  3. То есть \(\exists c\in\mathbb{R}\colon \forall n\in\mathbb{N} \mspace{11mu} c\in[a_n; b_n]\) (для интервалов неверно!).

Общая идея. Всё выражение в скобках — либо отдельное предложение, которое берут в скобки с завершающим знаком и заглавной буквой, либо часть предложения или оборот, а поэтому пишется со строчной и по настроению завершается либо ничем, либо вопросительным/восклицательным/многоточечным знаком (знаки почти аналогичны оным в прямой речи).

  1. Павел подумал. «Вот к чему это приводит!» — наконец воскликнул он.
  2. Павел подумал: «Вот к чему это приводит».
  3. Павел подумал: «Вот к чему это приводит!» — и сел на стул.

Правила постановки запятых при однородных членах.

  1. Я люблю яблоки и груши.
  2. Я люблю яблоки, бананы и груши.
  3. Я люблю и яблоки, и бананы, и груши.
  4. Я люблю яблоки, и бананы, и груши.
  5. Я люблю яблоки и бананы, груши и сливы.
  6. Я люблю яблоки, и бананы, и груши, и сливы.

Правило добавления окончаний к числительным в цифровой записи (гадость наподобие «5-й», «5-му» в книгах почти недопустима, однако в математике есть «\(j\)-й» — с ему подобными и приходится работать).

  1. Если предпоследняя буква окончания гласная, то после дефиса пишется одна буква (житый → j-й, при десятом → при 10-м, первое → 1-е).
  2. Если предпоследняя буква окончания согласная, то после дефиса пишутся две буквы (тринадцатого → 13-го).
  3. Три и более букв на конце не имеют права на существование. Нельзя написать «13-ого»! Я скажу: «Кхм, ого, ну и тупицы же нынче набирают тексты!»

Если внутри курсивного текста идёт какая-то дробь, то она должны быть прямой. Но если она идёт сразу после курсивной скобки, то она будет торчать, аки ребро торчит на худой корове. Старайся делать так, чтобы в тексте не было выражений навроде этого: «\(\left(\dfrac{1}{\varepsilon};+\infty\right)\) (\(\dfrac1\varepsilon\) нужен, чтобы...)». Выглядит косо. Необходимо добавить после скобки хотя бы одно слово, чтобы ещё не было чувства, что текстовую скобку надо было сделать большой (конечно, не надо, но когда я вижу маленькую скобку и вылезающую дробь, то рука начинает подрагивать). Как можно сделать лучше:

  • ...\(\left(\dfrac{1}{\varepsilon};+\infty\right)\). \(\dfrac1\varepsilon\) нужен, чтобы...
  • ...\(\left(\dfrac{1}{\varepsilon};+\infty\right)\) (чтобы расстояние от левой границы до нуля сужалось, \(\dfrac1\varepsilon\) должен быть левой концом интервала).

Следствие. Команда \dfrac иногда портит расположение строк, вызывая склеивающиеся конструкции и трудночитаемые нагромождения. Лучше \dfrac во внутристрочных формулах вообще не использовать.


Для конструкций вида «я люблю и красный, и белый сорт рыбы» вариант «я люблю и красный, и белый сорта́ рыбы» абсолютно равноправен. Но в приведённом ниже примере присутствует ошибка.

  • Неправильный вариант. Длина отрезка меньше половины длины окрестности, чтобы \(\Delta n\) в ней смог колебаться, ведь \(x_0\) может лежать и в левом, и в правом хвостах \(\Delta n\).

Но почему нельзя написать «может лежать и в левом, и в правом хвостах»? Потому что точка \(x_0\) лежит только в одном хвосте. Я люблю оба сорта рыбы, все их люблю, поэтому возможно и единственное, и множественное число. Но в данном примере множественное число просто не смотрится из-за нелогичности. Это же не квантовый \(x_0\), чтобы находиться в двух хвостах одновременно.

  • Правильный вариант. Длина отрезка меньше половины длины окрестности, чтобы \(\Delta n\) в ней смог колебаться, ведь \(x_0\) может лежать и в левом, и в правом хвосте \(\Delta n\).

Прямая «d» в подынтегральных выражениях повсеместно употребляется в зарубежной математической литературе. Я согласен, не всё из зарубежной литературы брать хорошо, свои традиции должны быть везде. Но одно дело — это традиция (пределы интегрирования сверху или сбоку, «меньше или равно» прямое или наклонное, точка или запятая как десятичный разделитель), а другое — это обозначение чего-то, что имеет принципиально другое значение. Так, буква \(d\) (курсивная) может быть истолкована как переменная. В интеграле её принято называть знаком дифференциала. Но ещё кто-то из великих (Гаусс или такой величины) жаловался, что в математике не хватает обозначений. К счастью, современные типографические средства позволяют набирать громадный диапазон символов. Так что такого особенного с дифференциалом? То, что тонкий пробел «\,» перед ним не всегда заметен, например после скобки. Чтобы пользователь точно знал, что это тот самый магический символ, который завершает запись интеграла, он должен немного отличаться от стандартных переменных. Всему своё лицо: переменные — курсив (\(a=5\)), векторы — курсив со стрелочкой или жирные строчные (\(\vec a = \boldsymbol{a}=\mathbf{a} = \begin{pmatrix}a_1 \\ a_2\end{pmatrix}\)), матрицы — жирные заглавные (\((\boldsymbol{X}^T\boldsymbol{X})^{-1}\boldsymbol{X}^T\boldsymbol{Y}\)), поля — двойные (\(\mathbb{N} \subset \mathbb{R}\)), алгебры — каллиграфические (\(\mathcal{A} = \bigl\{ \{a,b\},\{c,d\},\{\Omega\},\varnothing\bigr\}\)), алгебры Ли, векторные пространства и идеалы — фрактурные (\(\mathfrak{A} \mapsto \mathfrak{gl}(\mathfrak{A})\)). А «D» и «d» в дифференциальных выражениях пусть будут прямыми. В СССР не было такого разнообразия латинских шрифтовых касс, чтобы откуда-то что-то брать.

Неправильный вариант. \(\displaystyle \frac{{d}I}{{d}t} = f(x_2,t)\frac{{d}x_2}{{d}t} - f(x_1,t)\frac{{d}x_1}{{d}t} + \int\limits_{x_1(t)}^{x_2(t)}\frac{\partial f}{\partial t}{d}x \).

Правильный вариант. \(\displaystyle \frac{\mathrm{d}I}{\mathrm{d}t} = f(x_2,t)\frac{\mathrm{d}x_2}{\mathrm{d}t} - f(x_1,t)\frac{\mathrm{d}x_1}{\mathrm{d}t} + \int\limits_{x_1(t)}^{x_2(t)}\frac{\partial f}{\partial t}\mathrm{d}x \).

Мораль. Если у Демидовича матожидание, вероятность и дисперсия обозначаются прямыми и беззасечечными \(\mathsf{E}\), \(\mathsf{P}\) и \(\mathsf{D}\), а «принадлежит» — длиннющими вилами, то это не значит, что так надо. Необходимо от каждой традиции брать лучшее в плане функциональности, а затем доказывать, что оно лучшее.

Борьба с системой

Александр Пергеевич Сушкин.

— Как называется легендарный волдырь смерти?
— Волдырьморт.

Что говорят человеку, когда он в деревне несёт вольные мысли, направленные на расшатывание устоев деревенской системы.
— Типун тебе на язык!
То же, только в городе.
— Путин тебе на язык!

А ведь знатные были остряки родители Антона Палыча Чехова. «Чех» — это почти что «чих». Но не всегда понятно, поэтому для ясности добавили подходящих инициалов: Апчехов! — Будемте здоровы!

Французов за что надо любить? У них «putain» (читается так же, как и «poutin», [путэ̃] — это потаскуха, путана, панельщица, жёлтобилетчица.

Шарль-Валантен Алькан — подборка лучшего из лучшего

АЛЬКАН, ШАРЛЬ-ВАЛАНТЕН (МОРАНЖ) — французский композитор, один из ярчайших представителей эпохи романтизма, ближайший друг Ф. Листа и Ф. Шопена. В отличие от «салонных» французских композиторов, Алькан писал нечеловечески сложную музыку. Сам Лист на публике побаивался её исполнять (особенно в присутствии самого Алькана!), что послужило поводом для слухов, что музыку Алькана невозможно исполнить человеческими руками. Кроме того, Алькан потерпел крупную неудачу на служебном поприще и уступил почётное место в музыкальной академии Мармонтелю, что привело его в отчаянье; когда же умер Ф. Шопен, то Алькан, убитый горем, уходит в отшельники и перестаёт выходить из дома. Биограф Шопена Никс имел следующий диалог с консьержем в доме Алькана:

— Господин Алькан дома?
(решительно) Нет.
— А... Когда его можно застать у себя дома?
(так же решительно) Никогда.

Мизантропия и женоненавистничество, в которых Шарль-Валантен признавался в одном их писем Ф. Хиллеру, стали роковыми: музыку Алькана забыли почти на 100 лет, пока её не вспомнили М. Биннс (1950-е), Р. Левенталь (1960-е), Р. Смит (1970-е), Б. Рингайсен (1980-е), М.-А. Амлен (1990-е), Л. Мартин (2000-е), а распространение творчества этого композитора на видеохостинге YouTube благотворно поспособствовало популяризации этюдов, прелюдий, сонат, скерцо, эскизов и прочих пьес Алькана среди молодёжи (на конкурсе имени Шопена в 2010 году впервые зазвучал Алькан: К. Исака исполнил концерт для соло фортепиано оп. 39 8–10).

Алькан, уйдя от светской суеты из-за своей гиперчувствительной натуры, создаёт одни из сложнейших в плане музыкальности произведений, но чувствует, что сам является гением; Алькану из-за этого не чуждо и лёгкое подсмеивание над массой исполнителей. Так, создав грандиозный концерт для соло фортепиано (50 минут!), он с лёгкостью называет три его части (включая получасовую первую) просто этюдами и включает их в сборник этюдов. Та же участь постигает и титаническую симфонию, которая насквозь пронзена отчаянием. В этом можно увидеть и иной смысл: в музыкальных кругах не принято исполнять концерт или симфонию отдельными частями. Раздробив их на часть сборника этюдов, господин Алькан снисходительно дал пианистам право исполнять их по отдельности без стыда и без боязни.

К сожалению, Алькан никогда не станет мейнстримовым композитором, как Брамс или Рахманинов; его натура всегда будет окружена тайной, которую он унёс с собой в могилу в результате трагической смерти от упавшей на него мебели, на которой он хранил Талмуд. Хочется верить, что Алькан когда-либо завоюет любовь всех знатоков музыки.

Зачем держать на жёстком диске свыше гигабайта избранных произведений Алькана, когда со временем в интернет подгружают всё более качественные записи, а удалённые появляются вновь?

Charles-Valentin Alkan

Итак, Шарль-Валантен Алькан (Charles-Valentin Alkan). Один из трёх величайших представителей среднего романтизма (наряду с Шопеном и Листом). Ходячая энциклопедия среднего романтизма, так сказать. Нельзя не полюбить Алькана. Чтобы полюбить его, достаточно всего лишь прослушать следующие произведения (самое избранное; все ссылки открываются в новом окне).

Список 1: самое избранное, лучшее из лучших Алькана

http://www.youtube.com/watch?v=t6OQpkOUijE — 12 минорных этюдов, оп. 39 №12: «Пир Эзопа»
http://www.youtube.com/watch?v=n97AMizsHrs — то же самое, другое исполнение, ещё более безумное.
Это визитная карточка: Бетховен — «К Элизе», Моцарт — «Турецкий марш», Шопен — вальс, Метнер — «Сказки», Скрябин — «Патетический этюд», а Алькан — «Пир Эзопа».
Далее — с самого известного:
http://www.youtube.com/watch?v=anM5TKIvUZA — Три великих этюда, оп. 76 №3: «Вечное движение, или воссоединение рук»
http://www.youtube.com/watch?v=l8dP0LW0Ps8 — 12 минорных этюдов, оп. 39 №7: «Симфония для фортепиано соло, ч. 4»
http://www.youtube.com/watch?v=XC3tN9ovpUI — это не Алькан. Это Марк-Андре Амлен, «Двойной этюд по мотивам Алькана». Это комбинация двух вышестоящих этюдов, а в одном месте там даже есть отсылка к «Пиру Эзопа».
http://www.youtube.com/watch?v=hNCFOhiUfUs — Соната «Четыре возраста», ч. 1: «20 лет»
http://www.youtube.com/watch?v=T4gaU9YERv0 — Похоронный марш на смерть попугая
http://www.youtube.com/watch?v=_VPYwfTFFbM — 12 минорных этюдов, оп. 39 №1: «Как ветер»
http://www.youtube.com/watch?v=3HOQpwzU-IU — 12 минорных этюдов, оп. 39 №10: «Концерт для фортепиано соло, ч. 3»
http://www.youtube.com/watch?v=Lg-4GcfcC4k — Этюд «Железная дорога», оп. 27
http://www.youtube.com/watch?v=MNleymt9gyI — Огненное скерцо, оп. 34
http://www.youtube.com/watch?v=pUlgsDD3iDw — Сальтарелла, оп. 23
http://www.youtube.com/watch?v=B-xJOLc8nKQ — 12 прелюдий, оп. 31 №8: «Песня безумной девушки на берегу моря»
http://www.youtube.com/watch?v=pkeoDWlohyQ — Концертная соната, оп. 47, ч. 4: «Финал в форме сальтареллы»
http://www.youtube.com/watch?v=t6r6_kRV2L4 — Два марша, оп. 26b: «Триумфальный марш»
http://www.youtube.com/watch?v=wRoWfdKA7Js — 12 минорных этюдов, оп. 39 №3: «Дьявольское скерцо»
http://www.youtube.com/watch?v=s9RthqXGZmU — Соната «Четыре возраста», ч. 2: «30 лет — как будто Фауст»
http://www.youtube.com/watch?v=p-6RbbwQN5A — Три бравурных скерцо, оп. 16 №3
http://www.youtube.com/watch?v=1Bw3yTsxdC8 — 12 минорных этюдов, оп. 39 №2: «В молосском ритме»
http://www.youtube.com/watch?v=fA0XVVNJoFM — 12 мажорных этюдов, оп. 35 №5: «Варварское аллегро»
http://www.youtube.com/watch?v=4PgGAV6y8_A — 12 минорных этюдов, оп. 39 №6: «Симфония для фортепиано соло, ч. 3»
http://www.youtube.com/watch?v=6hCbxKnOH64 — Псалом 137 «На реках вавилонских», оп. 52
http://www.youtube.com/watch?v=xhRk1Z04ulQ — 12 минорных этюдов, оп. 39 №4: «Симфония для фортепиано соло, ч. 1»
http://www.youtube.com/watch?v=oYvdObA5ZNo — 48 эскизов, оп. 63 №28: «Несгибаемость»
http://www.youtube.com/watch?v=lAm-qPN31Wk — Три пьесы, оп. 15 №2: «Смерть»
http://www.youtube.com/watch?v=xpcsksh31ew — Три пьесы, оп. 15 №3: «Ветер»
http://www.youtube.com/watch?v=71h-56OBwd8 — Третий сборник песен, оп. 65 №2: «Домовые»
http://www.youtube.com/watch?v=FBI6rk-CgFg — Три бриллиантовые импровизации, оп. 12 №3
http://www.youtube.com/watch?v=uy8GFclwEP4 — Концертный дуэт, оп. 21 ч. 2: «Ад»
http://www.youtube.com/watch?v=Tc9If7NPCt8 — Токкатина, оп. 75
http://www.youtube.com/watch?v=ep7eUZXyMPg — «Ускоренный шаг» для оркестра

Почему так важна нормальность ошибок в регрессии

В эконометрике очень полезно, если ошибки имеют нормальное распределение. В таком случае эконометристы сразу могут получить надёжные оценки для ошибок коэффициентов и интервалы для коэффициентов. При этом студентов обычно коварно успокаивают, мол, «если у вас очень много наблюдений, то тогда нормальность появится сама». Хо-хо, чёрта с два. Если у меня величина имеет \(t\)-распределение или, того хуже, равномерное, то нормальности у меня автоматически никакой не появится. Тогда гегемоны-семинаристы говорят: «Ой, ну ладно вам придираться, был доверительный интервал шириной 2,8 — стал шириной 2,9».

Сегодня я покажу, что отсутствие нормальности приводит к куда более страшным последствиям.

Рассмотрим функцию Кобба—Дугласа, и пусть, как всегда, отдача от труда равна \(\frac13\), от капитала — \(\frac23\), производственная функция описывается формулой
\[Y = A \cdot L^\alpha \cdot K^\beta \cdot f(\varepsilon). \]

Очень важно определить, что такое \(f(\varepsilon)\). Если мы хотим получить линейную модель вида
\[\ln Y =\ln A + \alpha \ln L + \beta \ln K +\varepsilon, \]
то при потенцировании должно быть
\[Y = A \cdot L^\alpha \cdot K^\beta \cdot e^{\varepsilon}.\]

Если \(\varepsilon\sim \mathcal{N}(0; 1)\), то как выглядит распределение \(e^{\varepsilon}\)? Давайте посмотрим.

В gretl сгенерируем Add — Random Variable — Normal со средним 0 и стандартным отклонением 1 (команда randgen(N,0,1)). Пускай для надёжности это будет десять тысяч, сто тысяч, миллион случайных величин! Нам же всего лишь график посмотреть, правда?

Summary statistics, using the observations 1 - 1000000
for the variable 'epsilon' (1000000 valid observations)

  Mean                     -0.0013720
  Median                  -0.00026809
  Minimum                     -4.9740
  Maximum                      4.7117
  Standard deviation           1.0007
  C.V.                         729.32
  Skewness                 -0.0015528
  Ex. kurtosis              0.0075161
  5% percentile               -1.6493
  95% percentile               1.6438
  Interquartile range          1.3480
  Missing obs.                      0

Test for normality of epsilon:
 Doornik-Hansen test = 2.76293, with p-value 0.251211
 Shapiro-Wilk W = 0.999998, with p-value 0.999982
 Lilliefors test = 0.000685939, with p-value ~= 0.3
 Jarque-Bera test = 2.75571, with p-value 0.252118

Normal distribution

Normal distribution 2

А вот и экспонента: Add — Define new variable: expepsilon=exp(epsilon).

Summary statistics, using the observations 1 - 1000000
for the variable 'expepsilon' (1000000 valid observations)

  Mean                         1.6477
  Median                      0.99973
  Minimum                   0.0069156
  Maximum                      111.24
  Standard deviation           2.1661
  C.V.                         1.3146
  Skewness                     6.1000
  Ex. kurtosis                 91.825
  5% percentile               0.19218
  95% percentile               5.1750
  Interquartile range          1.4510
  Missing obs.                      0

Exponent of normal distribution

Exponent of normal distribution 2

Так, это хорошо. Теперь представим, что после долгих лет упорного дата-майнинга (data mining) мы достали данные о миллионе рабочих и миллионе рабочих мест, оборудованных капиталом. Теперь сгенерируем рабочую силу и капитал для функции Кобба—Дугласа. Пусть они все будут равномерны, труд — от 3 до 15 (randgen(u,3,15)), капитал — от 5 до 20 (randgen(u,5,20)). Ничего, регрессия только выиграет от такой независимости. Add — Random variable — Uniform. Почему такие значения? Во-первых, все логарифмы больше единицы. Во-вторых, чем шире разброс регрессоров, тем лучше. Корреляцию необходимо тоже проверить статистически.

Да, и не забываем менять seed! Tools — Seed for random numbers. А ещё лучше записывать, какие числа используем.

Summary statistics, using the observations 1 - 1000000
for the variable 'L' (1000000 valid observations)
  Mean                         8.9972
  Median                       8.9914
  Minimum                      3.0000
  Maximum                      15.000
  Standard deviation           3.4639
  C.V.                        0.38499
  Skewness                  0.0028195
  Ex. kurtosis                -1.2002
  5% percentile                3.6035
  95% percentile               14.402
  Interquartile range          5.9986
  Missing obs.                      0

Summary statistics, using the observations 1 - 1000000
for the variable 'K' (1000000 valid observations)
  Mean                         12.500
  Median                       12.501
  Minimum                      5.0000
  Maximum                      20.000
  Standard deviation           4.3319
  C.V.                        0.34655
  Skewness                4.5311e-006
  Ex. kurtosis                -1.2022
  5% percentile                5.7482
  95% percentile               19.247
  Interquartile range          7.5089
  Missing obs.                      0

corr(L, K) = -0.00050070
Under the null hypothesis of no correlation:
 t(999998) = -0.500703, with two-tailed p-value 0.6166

Uniform factor distribution 1

Uniform factor distribution 2

На диаграмме разброса покажем только первые десять тысяч точек, так как оно всё рябит.

Factor distribution

Выполнены почти все условия теоремы Гаусса—Маркова ((1) отсутствие корреляции ошибок благодаря качественному генератору случайных величин (статистика Дарбина—Уотсона), (2) детерминированность и независимость \(X_i\), (3) отсутствие систематической ошибки \((\mathbb{E}(\varepsilon)=0)\), (4) гомоскедастичность ошибок (в силу, опять же, генератора)) — осталось только заняться спецификацией.

Всё отлично. Теперь придумываем модель. Пусть
\[Y = 2{,}71828 \cdot L^{0{,}333} \cdot K^{0{,}667} \cdot e^{\varepsilon},\]
\[Z = 2{,}71828 \cdot L^{0{,}333} \cdot K^{0{,}667} + 5\varepsilon.\]

В данном случае мы немного чувствуем себя богами, и это оттого, что нам известны истинные \(\varepsilon\). Что же, генерируем желаемые переменные в Add — Define new variable:

Y=2.71828*L^0.333*K^0.667*expepsilon
Z=abs(2.71828*L^0.333*K^0.667+5*epsilon)

Почему я применил abs() в последней формуле? Потому что кое-где эти дурацкие нормальные ошибки уводят наш чудесный выпуск в минус. На миллион наблюдений и при моих параметрах модели таких случаев едва ли наберётся сто, поэтому можно успешно их увести в положительную область. Всё равно они по модулю маленькие — действительность отражают неплохо.

Смотреть там особо не на что, пока мы не получим результаты регрессионного анализа. Выделяем все четыре. Нажимаем Variables — Add — Logs of selected variables. Теперь идём в Model — Ordinary Least Squares и задаём параметры. Зависим l_Y, независимы l_K и l_L.

Model 1: OLS, using observations 1-1000000
Dependent variable: l_Y
             coefficient   std. error   t-ratio   p-value
  -------------------------------------------------------
  const       1.00204      0.00811912    123.4    0.0000  ***
  l_L         0.333701     0.00229338    145.5    0.0000  ***
  l_K         0.665010     0.00261911    253.9    0.0000  ***

Mean dependent var   3.340627   S.D. dependent var   1.042599
Sum squared resid     1001331   S.E. of regression   1.000667
R-squared            0.078822   Adjusted R-squared   0.078820
F(2, 999997)         42783.15   P-value(F)           0.000000
Log-likelihood       -1419603   Akaike criterion      2839213
Schwarz criterion     2839248   Hannan-Quinn          2839223
Log-likelihood for Y = -4.76023e+006

Всё отлично. Правда, R² низкий. Но это ещё ничего не значит. Как видите, этот тест отлично показал, что R² — это вообще не индикатор. Это регрессия начинает извиняться, что в каждом наблюдении у неё есть ошибка, а ошибок много (очень много), а они ещё все скачут экспоненциально (вернее, дают большую ошибку в оригинальный \(Y\) и оставляют этот гадкий след даже после логарифмирования). Коэффициенты, конечно же, точные. Дополнительно исчисленный Дарбин—Уотсон (в таблице не показан) равен 1,998 792. Теперь вторая модель.

Model 2: OLS, using observations 1-1000000
Dependent variable: l_Z
             coefficient   std. error    t-ratio   p-value
  --------------------------------------------------------
  const       0.860155     0.00174908     491.8    0.0000  ***
  l_L         0.350244     0.000494058    708.9    0.0000  ***
  l_K         0.700475     0.000564230   1241      0.0000  ***

Mean dependent var   3.320815   S.D. dependent var   0.375988
Sum squared resid    46470.85   S.E. of regression   0.215571
R-squared            0.671274   Adjusted R-squared   0.671273
F(2, 999997)          1021021   P-value(F)           0.000000
Log-likelihood       115526.5   Akaike criterion    -231047.0
Schwarz criterion   -231011.5   Hannan-Quinn        -231037.2
Log-likelihood for Z = -3.20529e+006

Что?! Что я вижу?! На миллионе наблюдений в допущении экспоненты нормальных ошибок мы получили асимптотически смещённые оценки! Позор! Позор! Позор этому миру. Можно уже начинать сжигать книги.

Проведём тест на сумму коэффициентов. Я понимаю, что на миллионе в первой регрессии и так уже коэффициенты близки к истинным, поэтому не так хорошо видно, что́ я на самом деле пытаюсь понять, ибо \(0{,}333\,7+0{,}665\,0\approx\ldots1\) — а насколько именно приближённо? Вот на эту единицу мы и проверим. Tests — Linear restrictions. Вводим мантру:

b[l_L]+b[l_K]=1

Ответ для регрессии \(Y\):

Restriction:
 b[l_L] + b[l_K] = 1
Test statistic: F(1, 999997) = 0.137098, with p-value = 0.711183

Restricted estimates:
             coefficient   std. error   t-ratio   p-value
  -------------------------------------------------------
  const       0.999065     0.00116651    856.5    0.0000  ***
  l_L         0.334261     0.00172455    193.8    0.0000  ***
  l_K         0.665739     0.00172455    386.0    0.0000  ***
  Standard error of the regression = 1.00067

Смотрим p-value: 0,711 — конечно, при миллионе-то наблюдений! Отлично, тест пройден.

А если ввести линейные ограничения в модели с кривыми ошибками (регрессия \(Z\))?

Restriction:
 b[l_L] + b[l_K] = 1
Test statistic: F(1, 999997) = 4569, with p-value = 0

Restricted estimates:
             coefficient   std. error    t-ratio   p-value
  --------------------------------------------------------
  const       0.977157     0.000251871   3880      0.0000  ***
  l_L         0.328230     0.000372363    881.5    0.0000  ***
  l_K         0.671770     0.000372363   1804      0.0000  ***
  Standard error of the regression = 0.216063

Удивительно, но наши смещённые коэффициенты чудесным образом «пофиксились» самостоятельно! Другое дело, что p-value равно нулю, что мы улетели в «хвост» распределения, гипотеза о равенстве суммы единице отвергается (ошибка первого рода), поэтому данный тест показывает нам жирную дулю, что ненормальные ошибки — бич регрессий.

Давайте сохраним остатки (Save — Residuals) и посмотрим на их распределение. Заодно и потестируем. Я назвал их eY и eZ соответственно.

Test for normality of eY:
 Doornik-Hansen test = 2.76177, with p-value 0.251356
 Shapiro-Wilk W = 0.999998, with p-value 0.999989
 Lilliefors test = 0.000695252, with p-value ~= 0.28
 Jarque-Bera test = 2.75455, with p-value 0.252266

Good residuals 1

Good residuals 2

Test for normality of eZ:
 Doornik-Hansen test = 994212, with p-value 0
 Shapiro-Wilk W = 0.913314, with p-value 1.50967e-149
 Lilliefors test = 0.0623541, with p-value ~= 0
 Jarque-Bera test = 2.59783e+007, with p-value 0

Bad residuals 1

Bad residuals 2

Очень похоже на распределение Стьюдента, но я не могу знать наверняка, так как и пик острее и выше, и «хвосты» тяжелее.

Для полного счастья запишем, как будут выглядеть истинные ошибки в модели с функцией Кобба—Дугласа и прибавленной ошибкой:
\[Y = AL^{\alpha}K^{\beta} + \varepsilon = AL^{\alpha}K^{\beta}\left(1 + \frac{\varepsilon}{AL^{\alpha}K^{\beta}} \right)\]

Так как последняя скобка довольно близка к единице (уж слишком на многое делят несчастный эпсилон), то действует выражение эквивалентности \(x \stackrel{x\rightarrow0}{\sim} \ln (1+x)\). Но я есмь человек, любящий точность, а оттого посмотрю на оба распределения. Как видно ниже, они почти сливаются.

error1=epsilon/(2.71828*L^0.333*K^0.667)
error2=ln(1+epsilon/(2.71828*L^0.333*K^0.667))

error1
error2
Bad error

Вообще говоря, ничто не может быть нагляднее, чем график. Особенно трёхмерный. Конечно, я не могу построить график с миллионом точек. Даже сохранить данные не могу (программа зависла, пришлось к данному моменту всё заново делать... чёрт). Поэтому построим график с уравнениями конечных регрессий по выборке размером в две тысячи наблюдений.

Для «правильной» регрессии l_Y график выглядит так:
Volumetric normal distribution 1

Volumetric normal distribution 2

Volumetric normal distribution 3

Видно, что «пух» есть, что сильный, что на миллионе наблюдений он вообще превращается в персидский ковёр, но... Жизнь есть жизнь.

Для регрессии с неправильно специфицированными ошибками график выглядит так:

Volumetric not normal distribution

Volumetric not normal distribution 2

Volumetric not normal distribution 3

«Пуха» меньше, но и цена этого выше.

Вывод. Допущение о «нормальности» этого мира — абсурд. Несмотря на «нормальность» распределения ростов, на стьюдентовость распределения масс и на то, что уже на двадцати пяти монетках можно получить нормальное распределение, глупо, смешно и опасно предполагать, что парочка безобидных преобразований просто увеличит стандартные ошибки. Даже если это утверждал сам Андрей Александрович Мамонтов, посмеиваясь над скептически настроенными студентами. Правильная спецификация регрессоров даже асимптотически не может исцелить от ненормальности ошибок. Memento mori.

Постскриптум. «Иногда малая выборка лучше большой» — это верно или неверно? Неверно, но доказательство очень трудное. Тогда я скажу по-другому. Можно ли подпортить картину торжества модели с правильной спецификацией? Можно. Построим при помощи МНК те же две регрессии, но только на выборке из 800 наблюдений. Так как выборка — случайная величина, то и бояться её нечего.

Model 1: OLS, using observations 1-800
Dependent variable: l_Y
             coefficient   std. error   t-ratio    p-value 
  ---------------------------------------------------------
  const       0.755572     0.294980      2.561    0.0106    **
  l_L         0.309048     0.0845139     3.657    0.0003    ***
  l_K         0.796715     0.0943801     8.442    1.47e-016 ***

Mean dependent var   3.375052   S.D. dependent var   1.057215
Sum squared resid    806.8346   S.E. of regression   1.006151
R-squared            0.096536   Adjusted R-squared   0.094269
F(2, 797)            42.58025   P-value(F)           2.69e-18
Log-likelihood      -1138.554   Akaike criterion     2283.107
Schwarz criterion    2297.161   Hannan-Quinn         2288.506
Log-likelihood for Y = -3838.6

Model 2: OLS, using observations 1-800
Dependent variable: l_Z
             coefficient   std. error   t-ratio    p-value 
  ---------------------------------------------------------
  const       0.786741     0.0624576     12.60    2.61e-033 ***
  l_L         0.348992     0.0178945     19.50    1.48e-069 ***
  l_K         0.732322     0.0199836     36.65    4.14e-173 ***

Mean dependent var   3.333156   S.D. dependent var   0.379279
Sum squared resid    36.17173   S.E. of regression   0.213037
R-squared            0.685294   Adjusted R-squared   0.684505
F(2, 797)            867.7622   P-value(F)           8.2e-201
Log-likelihood       103.3827   Akaike criterion    -200.7654
Schwarz criterion   -186.7115   Hannan-Quinn        -195.3665
Log-likelihood for Z = -2563.14

Какая регрессия кажется лучше? Коэффициенты одинаково кривоваты и почти равны (и это при 800 наблюдениях! Вы там думали, что склеить пять наборов по 24 точки — это асимптотика, но нет, взгляните горькой правде в глаза), но у второй куда больше дьявольский R², да и ошибки коэффициентов поменьше... Однако отсутствие асимптотики не мешает второй модели по-прежнему запарывать тест линейного ограничения:

(Регрессия Y)
Restriction:
 b[l_L] + b[l_K] = 1
Test statistic: F(1, 797) = 0.702842, with p-value = 0.402082

Restricted estimates:
             coefficient   std. error   t-ratio    p-value 
  ---------------------------------------------------------
  const       1.00047      0.0410358    24.38     1.49e-098 ***
  l_L         0.262031     0.0632130     4.145    3.76e-05  ***
  l_K         0.737969     0.0632130    11.67     3.49e-029 ***
  Standard error of the regression = 1.00596

(Регрессия Z)
Restriction:
 b[l_L] + b[l_K] = 1
Test statistic: F(1, 797) = 9.2669, with p-value = 0.00241004

Restricted estimates:
             coefficient   std. error   t-ratio    p-value 
  ---------------------------------------------------------
  const       0.975023     0.00873522   111.6     0.0000    ***
  l_L         0.312843     0.0134561     23.25    1.05e-091 ***
  l_K         0.687157     0.0134561     51.07    1.13e-253 ***
  Standard error of the regression = 0.214138

Постсубскриптум. Вы только что прослушали «Фантазию» для двух фортепиано А. Н. Скрябина не сравнение двух моделей, а сравнение двух спецификаций, так как в обоих случаях регрессоры были одними и теми же.