Чудо  - Рациональность - Наука - Духовность

Клуб Исследователь - главная страница

ЖИЗНЕННЫЙ ПУТЬ - это путь исследователя, постигающего тайны мироздания

Чем больше знаешь, тем больше убеждаешься что ни чего не знаешь...

Главная

Библиотека

О клубе
ГАИ "Алтай-Космопоиск"
Путеводитель по Алтаю
Маршруты (походы)
   Туризм

X-files

Наука и технологии

Техника и приборы

Косморитмодинамика

Новости

Фотоальбомы

Видеоальбомы

Карты (треки)

Прогноз погоды

Контакты

Форум

Ссылки, баннеры

 

Наш сайт доступен

на

52 языках

 

 
Если вам понравился сайт, то поделитесь со своими друзьями этой информацией в социальных сетях, просто нажав на кнопку вашей сети.
 
 
 
 
 
  Locations of visitors to this page
LightRay Рейтинг Сайтов YandeG Яндекс цитирования Яндекс.Метрика

 

Besucherzahler

dating websites

счетчик посещений

russian brides

contador de visitas

счетчик посещений

 

 

Здесь

может быть ваша реклама.

 

Наука и технологии

- Статистика

СОДЕРЖАНИЕ

Электронный статистический словарь

   А  Б  В  Г  Д  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Э  Я

Равномерное распределение. Дискретное равномерное распределение (этот термин был впервые использован Успенским в 1937 г.) сосредоточено в нескольких точках, которым приписывает равные вероятности:

f(x) = 1/N          x = 1, 2, ..., N

Непрерывное равномерное распределение сосредоточено на интервале [a, b] и имеет следующую функцию плотности:

f(x) = 1/(b-a)        a < x < b

где
a   - верхняя граница интервала, из которого выбираются точки
b   - нижняя граница интервала, из которого выбираются точки

Радиальные базисные функции. Вид нейронной сети, имеющий промежуточный слой из радиальных элементов и выходной слой из линейных элементов. Сети этого типа довольно компактны и быстро обучаются. Предложены в работах Broomhead and Lowe (1988) и Moody and Darkin (1989), описаны в большинстве учебников по нейронным сетям (например, Bishop, 1995; Haykin, 1994). См. раздел  Neural Networks.

Разведочный анализ данных (РАД). В отличие от традиционной проверки гипотез, предназначенной для проверки априорных предположений, касающихся связей между переменными (например, такого рода: "Имеется положительная корреляция между возрастом человека и его/ее предрасположенностью к риску"), разведочных анализ данных (РАД) применяется для нахождения систематических связей между переменными в ситуациях, когда отсутствуют (или имеются недостаточные) априорные представления о природе этих связей. Как правило, при разведочном анализе учитывается и сравнивается большое число переменных, при этом для поиска закономерностей используются самые разные методы.

Дополнительную информацию см. в разделе Разведочный анализ данных.

Разность (в анализе временных рядов). В данном преобразовании временного ряда, ряд будет преобразован как: X=X-X(лаг). После взятия разности модифицированный ряд будет иметь длину N-лаг (где N - длина исходного ряда).

Разрешение. План разрешения R - это такой план, в котором нет взаимодействий порядка l, смешивающихся с любыми другими взаимодействиями порядка меньше R - l. Например, в плане с разрешением R, равным 5, нет взаимодействий порядка l = 2, которые смешиваются с любыми другими взаимодействиями порядка меньше, чем R - l = 3; таким образом, главные эффекты в этом плане не смешиваются друг с другом, главные эффекты не смешиваются с взаимодействиями порядка 2, а взаимодействия порядка 2 не смешиваются друг с другом. Для обсуждения роли разрешения в планировании эксперимента см. 2**(k-p) дробные факторные планы  и Поиск лучшего 2**(k-p) дробного факторного плана.

Распределение Вейбулла. Распределение Вейбулла (Weibull, 1939 г., 1951 г.; см. также Lieblein, 1955 г.) имеет следующую функцию плотности (для положительных параметров b, c и ):

f(x) = c/b*[(x-)/b]c-1 * e^{-[(x-)/b]c}
< x,  b > 0,  c > 0

где
b    - параметр масштаба распределения
c    - параметр (формы) распределения
     - параметр положения распределения
e     - число Эйлера (2.71...)

На рисунке показано изменение распределения Вейбулла при увеличении параметра формы (.5, 1, 2, 3, 4, 5 и 10).

Распределение Коши. Распределение Коши (этот термин был впервые использован Успенским в 1937 г.) имеет следующую функцию плотности:

f(x) = 1/(*{1 + [(x-)/]2})
0 <

где
     - параметр положения (медиана)
     - параметр масштаба
    - число пи (3.1415...)

На рисунке показано изменение формы распределения Коши  в зависимости от различных значений параметра масштаба (1, 2, 3 и 4) при параметре положения равном 0 .

Распределение Лапласа. Распределение Лапласа (или двойное экспоненциальное) имеет следующую функцию плотности:

f(x) = 1/(2b)*e-|x-a|/b        - < x <

где
a   - среднее распределения
b   - параметр масштаба
e   - число Эйлера (2.71...)

На рисунке показано изменение формы распределения Лапласа в зависимости от значений параметра масштаба (1, 2, 3 и 4) при нулевом значении среднего.

Распределение Парето. Стандартное распределение Парето имеет следующую функцию плотности (для положительного параметра c ):

f(x) = c/xc+1       1 x, c > 0

где
c    параметр (формы) распределения.

На рисунке показан вид распределения Парето при различных значениях параметра (1, 2, 3, 4 и 5).

Распределение Пуассона. Распределение Пуассона (этот термин был впервые использован Сопером в 1914 г.) определяется следующим образом:

f(x) = (x * e-)/x!
for x = 0, 1, 2, ..,   0 <

где
    - ожидаемое значение x (среднее)
e    - число Эйлера (2.71...)

Распределение Релея. Распределение Релея имеет следующую функцию плотности:

f(x) = x/b2 * e-(x 2/2b2)
0 x <
b > 0

где
b    - параметр масштаба
e    - число Эйлера (2.71...)

См. также Анализ процессов.

 

На рисунке показано изменение формы распределения Релея в зависимости от значений параметра масштаба (1, 2 и 3).

Распределение хи-квадрат. Распределение хи-квадрат определяется следующим образом:

f(x) = {1/[2/2 * (/2)]} * [x(/2)-1 * e-x/2]
= 1, 2, ..., 0 < x

где
    - число степеней свободы
e   - число Эйлера (2.71...)
   - гамма-функция

На рисунке показано изменение формы хи-квадрат распределения при увеличении числа степеней свободы (1, 2, 5, 10, 25 и 50).

Расстояние городских кварталов (манхэттенское расстояние). Это расстояние является просто средним разностей по координатам. В большинстве случаев эта мера расстояния приводит к таким же результатам, как и для обычного расстояния Евклида. Однако отметим, что для этой меры влияние отдельных больших разностей (выбросов) уменьшается (так как они не возводятся в квадрат). См. также раздел  Кластерный анализ.

Расстояния Кука. Это еще одна мера влияния соответствующего наблюдения на уравнение регрессии. Эта величина показывает разницу между вычисленными B - коэффициентами и значениями, которые получились бы при исключении соответствующего наблюдения. В адекватной модели все расстояния Кука должны быть примерно одинаковыми; если это не так, то имеются основания считать, что соответствующее наблюдение (или наблюдения) смещает оценки коэффициентов регрессии.

См. также разделы  Стандартизованные остатки, Расстояния Махаланобиса и Удаленные остатки.

Расстояния Махаланобиса. Независимые переменные в уравнении регрессии можно представлять точками в многомерном пространстве (каждое наблюдение изображается точкой). В этом пространстве можно построить точку центра. Эта "средняя точка" в многомерном пространстве называется центроидом, т.е. центром тяжести. Расстояние Махаланобиса определяется как расстояние от наблюдаемой точки до центра тяжести в многомерном пространстве, определяемом коррелированными (неортогональными) независимыми переменными (если независимые переменные некоррелированы, расстояние Махаланобиса совпадает с обычным евклидовым расстоянием). Эта мера позволяет, в частности, определить является ли данное наблюдение выбросом по отношению к остальным значениям независимых переменных.

См. также разделы  Стандартизованные остатки, Удаленные остатки и Расстояния Кука.

Расширение HTM. Это расширение используется для обозначения файлов, записанных в формате HTML.

Расширение JPG. Это расширение используется для обозначения файлов, записанных в формате JPEG.

Регрессионные B-коэффициенты. Линия в двумерном пространстве (задаваемом двумя переменными) определяется уравнением Y=a+b*X; или, подробнее: значение переменной Y может быть вычислено как сумма константы (a) и произведения углового коэффициента (b) на значение переменной X. Константу также часто называют свободным членом, а угловой коэффициент называют коэффициентом регрессии или B-коэффициентом. В общем случае, процедура множественной регрессии оценивает уравнение линейной регрессии в виде:

Y = a + b1*X1 + b2*X2 + ... +bp*Xp

Отметим, что в этом уравнении коэффициенты регрессии (или B коэффициенты) представляют независимые вклады каждой независимой переменной в зависимую переменную. Однако, их значения не сравнимы, поскольку зависят от единиц измерения и диапазонов измерения соответствующих переменных. Таблица результатов регрессионного анализа содержит как обычные регрессионные коэффициенты (B-коэффициенты), так и бета-коэффициенты (отметим, что коэффициенты бета являются сравнимыми для разных переменных).

См. также раздел  Множественная регрессия.

Регрессионные бета-коэффициенты. Коэффициенты бета являются коэффициентами, которые были бы получены, если бы мы заранее стандартизовали все переменные, т.е. сделали их среднее равным 0, а стандартное отклонение равное 1. Одно из преимуществ бета-коэффициентов (по сравнению с B коэффициентами) заключается в том, что бета-коэффициенты позволяют сравнить относительные вклады каждой независимой переменной в предсказание зависимой переменной.

См. также раздел  Множественная регрессия.

Регрессия. Категория задач, где цель состоит в том, чтобы оценить значение непрерывной выходной переменной по значениям входных переменных.

См. также раздел  Множественная регрессия.

Регуляризация (для нейронных сетей). Модификация алгоритмов обучения, имеющая цель предотвратить пере- и недо-подгонку на обучающих данных за счет введения штрафа за сложность сети (обычно штрафуются большие значения весов - они означают, что отображение, моделируемое сетью, имеет большую кривизну) (Bishop, 1995).

См. раздел  Neural Networks.