Кристиан ещё наловчился вырезывать из стекла линзы и их тряпочкой шлифовать, после чего собрал окуляр для телескопа и обнаружил кольца Сатурна[62], изобрёл маятниковые часы и – внимание – диапроектор, чтобы дичайше смотреть «Ну, погоди!» на слайдах. Часы его конструкции были точны, недороги и быстро распространились по всему миру. Гюйгенс же и написал первую книгу о вероятности. Такой был замечательный голландец, ну вы понимаете, что ему там послужило вдохновением: не тюльпаны, конечно.
А дальше вот что происходит: развивается геодезия, астрономия и стрельба, например. И теория вероятностей начинает применяться в теории ошибок наблюдений. Как ложатся пули вокруг мишени? Тут надо рассказать про Лапласа, Пьера-Симона. Он опубликовал два закона распределения частотности ошибок, и второй из них называют гауссовым распределением. Дело в том, что большинство случайных величин из реальной жизни, таких, например, как ошибки измерений, стрельбы и прочего, могут быть представлены как анализ большого числа сравнительно малых ошибок, каждая из которых вызвана действием отдельной причины, не зависящей от остальных. Например, дрожанием руки – она же каждый раз по-разному дёргается.
А второй закон Лапласа гласит, что частота ошибок – экспонента[63] от квадрата ошибки, что сейчас называется нормальным распределением, а кривая – гауссианой. Гаусс (кстати, Карл), конечно, тоже был очень развитым ребёнком, но в то время ему было 2 года от роду, и он пока плоховато ещё законы формулировал. Но он подрос и авторитетом задавил бедного Лапласа.
9.4. Независимость
Сейчас я хочу пробежаться по некоторым терминам – для кого-то это будет повторением, но всё равно не повредит. Вероятность чаще всего обозначается латинской буквой p (от слова probability). Это всегда число, которое лежит между нулём и единицей, ну или от нуля и до 100 %. «Про цент» – это по-латински «поделить на сто», поэтому 100 % и есть единица. Если вероятность события – 0, это значит, что оно не может произойти. Если вероятность равна 1, то оно обязательно произойдёт. В этом основная идея.
Один из базовых принципов – это идея независимости. Вероятность обозначает шансы наступления какого-либо события. Например, результата какого-либо эксперимента вроде броска монеты. Вероятность того, что если вы подбросите монету и она упадёт орлом, равна одной второй, потому что у неё одинаковые шансы упасть орлом или решкой. Независимые эксперименты – это такие эксперименты, которые происходят – сюрприз! – вне зависимости друг от друга. Если вы бросаете монету два раза, результат первого броска никак не влияет на результат второго, и тогда мы говорим, что это независимые величины. Между бросками нет никакой связи.
Один из первых принципов даёт нам правило умножения: если события независимые, то вероятность сразу двух таких событий будет равна произведению их вероятностей. Это не сработает, если события как-то связаны. Страховка построена на том, что в идеале страховая компания продаёт полисы на независимые события (или страхует жизни независимых друг от друга людей). Поэтому лондонский пожар – плохой пример страхового случая. Если кто-то бухой в квартире запнулся, у него лампа упала на ковёр и подожгла шторы, а потом загорелась вся квартира, другие дома от этого не сгорят, они от этого неприятного происшествия никак не зависят.
В этом конкретном случае вероятность того, что сгорит весь город, страшно мала. Ведь вероятность того, что одновременно сгорят дом А, дом B и дом С, равна произведению вероятностей пожара в них. Кстати, строго говоря, если дома стоят совсем рядом, то вероятности не являются независимыми: пожар ведь может перекинуться на соседний дом. Но условно, если она равна одной тысячной, а в городе 1000 домов, то вероятность того, что все они сгорят, равна 1/1000 в тысячной степени, это хотя и не ноль, но можно считать, что ноль. Поэтому, если выписать очень-очень много независимых полисов, то риска разориться у страховой компании практически нет. Это фундаментальная идея, которая кажется простой и очевидной, но она совершенно точно не была такой, когда появилась.
9.5. Ожидание мата
Ещё одна важная концепция, которую мы будем использовать, – это матожидание. Кто-то может называть его средним или наиболее ожидаемым результатом – это примерно взаимозаменяемые термины. Можно их немного по-разному объяснять в зависимости от того, говорим ли мы о среднем из известной нам выборки или из всей совокупности возможных событий, её ещё называют генеральной совокупностью.
Но сначала надо-таки понять, что такое случайная величина. Если мы проводим эксперимент и результат эксперимента – какое-то абсолютно непредсказуемое число, то наш эксперимент и выдаёт случайную величину. К примеру, если мы бросаем монету и присвоим решке 0, а орлу – 1, тогда мы и определили случайную величину, она принимает значение 0 или 1 совершенно случайно.
Существуют дискретные (то есть прерывистые) случайные переменные, вроде той, что я только что привёл в пример, – у неё могут быть только конкретные значения (орёл или решка, 0 или 1). Когда мы имеем дело со случайными, но вполне определёнными событиями в идеальных условиях (как подбрасывание симметричной монеты), вероятность происшествия – это число нужных нам исходов, делённое на число всех возможных исходов. Так, два раза бросив монету, мы получим вероятность выпадения нужных нам двух решек в виде ¼, потому что исхода у нас четыре (решка-решка, решка-орёл, орёл-решка и два орла) – и все они имеют одинаковые шансы.
Есть ещё непрерывные случайные величины, которые могут принимать любые значения на некотором отрезке. Смешаем мы зачем-то горячий чай и холодную водку и опустим туда термометр. Кстати, его тоже изобрели в XVII веке, и тогда концепцию температуры – для нас привычную и понятную – только-только начали применять, да и градусов была целая куча: и Фаренгейта, и Цельсия, и Кельвина, и Ньютона, и даже Реомюра (и это ещё не все шкалы). Вы уже догадались, что в нашем стакане с волшебным егерь-чаем температура – величина непрерывная, у неё неограниченное количество возможных значений, хотя минимальное и максимальное мы представляем неплохо: вряд ли оно будет меньше 20 и больше 100 градусов Цельсия.
Для дискретных случайных переменных матожидание можно обозначить греческой буквой μ (мю), и оно будет суммой всех результатов, помноженных на вероятность каждого из них. В случае броска нашей условной монеты матожидание будет равно одной второй, и результата только два. А вообще, конечно, их может быть любое количество, в том числе и бесконечное. Но их можно сосчитать и узнать средневзвешенную оценку, а она и называется матожиданием. Также его называют средним арифметическим. Но чтобы его посчитать, мы должны знать точные вероятности событий.
Для