Translation of "квадратичная регрессия" to English language:


  Dictionary Russian-English

регрессия - перевод : регрессия - перевод : регрессия - перевод : квадратичная регрессия - перевод :

  Examples (External sources, not reviewed)

Квадратичная поверхность
Quadratic Spline
Это квадратичная ошибка.
It's a quadratic error.
Так линейная регрессия и логистическая регрессия это различные алгоритмы или нет?
So are linear regression and logistic regression different algorithms or not?
4 квадратичная реальная часть
4 Squared Real Part
4 квадратичная мнимая часть
5 Squared Imaginary Part
Квадратичная поверхность не закрыта
Quadratic spline not closed
А. Множественная линейная регрессия
Multiple linear regression
Квадратичная поверхность требует как минимум 5 точек.
Quadratic splines need at least 5 points.
Квадратичная поверхность требует указания минимум 3 х точек.
Quadratic splines need at least 3 points.
Квадратичная поверхность требует указания как минимум 4 точек.
Quadratic splines need at least 4 points.
И термин логистическая функция породил имя логистическая регрессия.
And the term logistic function, that's what give rise to the name logistic progression.
Итак, это были линейная регрессия с градиентным спуском.
So that's linear regression with gradient descent.
Одна, которая может подойти, это квадратичная модель типа такой.
One thing you could do is fit a quadratic model like this.
И регрессия означает, что нашей целью является прогнозирование непрерывной величины на выходе.
And by regression, that means that our goal is to predict a continuous valued output.
И, только дадим этому другое название, это также называется многомерная (множественная) линейная регрессия.
And, just to give this another name, this is also called multivariate linear regression.
Таким образом, каждая из этих проблем должна рассматриваться как проблема классификации, или как регрессия?
So, for each of these problems, should they be treated as a classification problem, or as a regression problem?
Обратно квадратичная зависимость Из фактов, показанных выше, возникает сила, которая прямо пропорциональна только поверхности тела.
Mass proportionalityFrom the premises outlined so far, there arises only a force which is proportional to the surface of the bodies.
Но потом вы можете решить, что ваша квадратичная модель не имеет смысла, потому что квадратичная функция, в конечном счёте, эта функция пойдёт вниз и, ну, мы не думаем, что цены на дома пойдут вниз, когда размер будет слишком большой.
But then you may decide that your quadratic model doesn't make sense because of a quadratic function, eventually this function comes back down and well, we don't think housing prices should go down when the size goes up too high.
Но даже если вы его не поймёте, всё равно нормальное уравнение и линейная регрессия будут работать нормально.
But even if you don't understand it, the normal equation and linear regression, you should really get that to work okay.
Авторы продемонстрировали, что такой подход в некоторых случаях более точный, чем линейная регрессия и требует в 2 раза меньше памяти.
It was shown to be much more accurate than linear regression in some instances, and it takes half the storage or less.
Например, вместо того чтобы проводить прямую, мы могли бы решить, что для этих данных лучше подходит квадратичная функция или полином второй степени.
For example, instead of sending a straight line to the data, we might decide that it's better to fit a quadratic function or a second order polynomial to this data.
И другое имя для этой можели одномерная линейная регрессия, где одномерная это всего лишь более ученое слово для функции одной переменной.
And univariate is just a fancy way of saying one variable. So, that's linear regression.
Так вот, это линейная регрессия. В следующем видео мы начнем разговор о том, как же именно мы будем реализовывать эту модель.
In the next video we'll start to talk about just how we go about implementing this model.
Представьте, что наша целевая функция J это квадратичная функция от этого параметра тета с действительным значением, так J от тета выглядит вот так.
Imagine that we have a cost function J that's a quadratic function of this real value parameter Theta, so J of Theta looks like that.
Первая квадратичная форма данной поверхности в таких координатах примет специальный вид formula_4где φ угол между асимптотическими линиями, и для второй квадратичной формы, L N 0.
The first fundamental form of the surface in these coordinates has a special form formula_4where formula_5 expresses the angle between the asymptotic lines, and for the second fundamental form, L N 0.
Итак, вот алгоритм градиентного спуска и вы можете использовать его для минимизирования, для попыток минимизирования ункции J. Не только если J определена как линейная регрессия.
So, that's the gradient descent algorithm, and you can use it to minimize, to try to minimize any cost function J. Not the cost function J to be defined for
Итак, вот градиентный спуск или регрессия, которая повторяется до сходимости, тета 0 и тета 1 обновляются, как знаете, она же минус альфа умножить на производную.
So here's gradient descent, or the regression, which is going to repeat until convergence, theta 0 and theta one get updated as, you know, the same minus alpha times the derivative term.
150 00 05 14,580 amp gt 00 05 16,104 Это очень 151 00 05 16,104 amp gt 00 05 18,761 плохо, то что нам дает линейная регрессия, так?
And this seems a pretty bad thing for linear regression to have done, right?
И термин регрессия указывает на то, что мы пытаемся предсказать непрерывные значения атрибутов. Вот еще один пример контролируемого обучения, я с друзьями по правде работали над этим ранее.
So maybe prices are actually discrete values, but usually we think of the price of a house as a real number, as a scalar value, as a continuous value number and the term regression refers to the fact that we're trying to predict the sort of continuous values attribute.
И в середине, для этого случая, на самом деле нет имени, но тут напишу, знаете, просто правильно . здесь полином второй степени , квадратичная функция кажется, она просто подходит для этих данных.
And in the middle, there isn't really a name but I'm just going to write, you know, just right. Where a second degree polynomial, quadratic function seems to be just right for fitting this data.
В частности я также хочу рассказать вам о том, как полиномиальная регрессия позволяет вам использовать механику линейной регрессии, чтобы подходить (делать похожие приближения) для очень сложных, даже нелинейных функций.
And in particular I also want to tell you about polynomial regression allows you to use the machinery of linear regression to fit very complicated, even very non linear functions.
Она носит название линейной регрессии, или в данном конкретном случае эта линейная регрессия одной переменной, где переменной является X, так как мы предсказываем все цены с помощью одной переменной X.
This model is called linear regression or this, for example, is actually linear regression with one variable, with the variable being x. Predicting all the prices as functions of one variable X. And another name for this model is univariate linear regression.
Линейная регрессия будет иметь большое количество параметров и для некоторых других алгоритмов, которые мы увидим в этом курсе, потому что для них метод нормального уравнения (наименьших квадратов) не применяется и не работает.
The linear regression will have a large number of features and for some of the other algorithms that we'll see in this course, because, for them, the normal equation method just doesn't apply and doesn't work.
Значение этой разницы стало очевидным тогда, когда регрессия была использована для расчета критического уровня при 5 процентном сокращении биомассы для биотипа NC S по отношению к тому же показателю для биотипа NC R.
The importance of this difference became apparent when the regression was used to calculate the critical level for a 5 reduction in the biomass of the NC S biotype relative to that of the NC R biotype.
Так что, возможно, вы захотите подставить квадратичную модель как эта, где вы считаете, что размер, то есть где цена это квадратичная функция и, может быть, это даст вам, знаете, приближение к данным, которое выглядит так.
So maybe you want to fit a quadratic model like this where you think the size, where you think the price is a quadratic function and maybe that'll give you, you know, a fit to the data that looks like that.
После разбивки данных по биотипам множественная линейная регрессия в отношении наилучших подмножеств позволила получить соотношения между пятью входными факторами и значением gs, которые составили 22,4 and 25,7 по показателю вариации для NC R и NC S, соответственно.
After splitting the data by biotype, best subsets multiple linear regression provided relationships between five input factors and gs that accounted for 22.4 and 25.7 of the variation for NC R and NC S respectively.
223 00 07 46,709 amp gt 00 07 48,447 Логистическая регрессия в действительности 224 00 07 48,447 amp gt 00 07 50,373 является алгоритмом классификации, который мы 225 00 07 50,380 amp gt 00 07 52,183 применяем, если 226 00 07 52,183 amp gt 00 07 55,810 метка Y является дискретной переменной, принимающей значения 0 или 1.
Logistic Regression is actually a classification algorithm that we apply to settings where the label Y is discreet valued. The 1001.
112 00 03 55,662 amp gt 00 03 57,770 В этом конкретном примере, похоже 113 00 03 57,770 amp gt 00 03 59,800 линейная регрессия 114 00 03 59,800 amp gt 00 04 02,193 дает достаточно разумные результаты даже для 115 00 04 02,193 amp gt 00 04 04,156 задачи классификации, в решении 116 00 04 04,156 amp gt 00 04 05,522 которой мы заинтересованы.
In this particular example, it looks like linear regression is actually doing something reasonable even though this is a classification task we're interested in.

 

Похожие Запросы : квадратичная дополнение - квадратичная потери - квадратичная ошибка - квадратичная ошибка - квадратичная форма - квадратичная функция - квадратичная зависимость - квадратичная кривая - квадратичная ошибка - регрессия опухоли - простая регрессия