Вход на сайт
подсчитать две таблицы
1279 просмотров
Перейти к просмотру всей ветки
в ответ Alehandra 24.08.08 22:09
Все очень просто. Есть понятие энтропия -- мера хаотичности информации. Почитайте ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D0....
В Вашем случае нужно проанализировать две зависимости:
1 По оси Х количество жителей по оси у процент заболеваний.
2 По оси X процент врачей на жителя по оси Y количество заболеваний.
Если в этих графиках есть зависимость, то вы получите пик в определенной области. Если зависимости нет вы получите график близкий к линии. Близость графика к линии покажет коэфициент распределения который и есть энтропия информации.
В Вашем случае нужно проанализировать две зависимости:
1 По оси Х количество жителей по оси у процент заболеваний.
2 По оси X процент врачей на жителя по оси Y количество заболеваний.
Если в этих графиках есть зависимость, то вы получите пик в определенной области. Если зависимости нет вы получите график близкий к линии. Близость графика к линии покажет коэфициент распределения который и есть энтропия информации.