Translation of "linear multiple regression" to Russian language:
Dictionary English-Russian
Linear - translation : Linear multiple regression - translation : Multiple - translation : Regression - translation :
Examples (External sources, not reviewed)
Multiple linear regression | А. Множественная линейная регрессия |
You now know about linear regression with multiple variables. | Теперь вы знаете о линейной регрессии с многими переменными. |
Linear Regression | Регрессионный анализ |
Linear regression? | Исследовали линейную регрессию? |
The best fit using multiple linear regression was established using the following two equations | Наилучшее соответствие на основе множественной линейной регрессии было установлено с использованием следующих двух уравнений |
In particular let's talk about how to use gradient descent for linear regression with multiple features. | В частности поговорим о том как использовать градиентный спуск для линейной регрессии со множеством параметров. |
In the previous video, we talked about the form of the hypothesis for linear regression with multiple features or with multiple variables. | В предыдущем видео мы говорили о форме гипотезы для линейной регрессии со множеством параметров или со множеством переменных. |
So, here's our linear regression algorithm. | Вот наш алгоритм линейной регрессии. |
So are linear regression and logistic regression different algorithms or not? | Так линейная регрессия и логистическая регрессия это различные алгоритмы или нет? |
So that's linear regression with gradient descent. | Итак, это были линейная регрессия с градиентным спуском. |
And thus, using linear regression this way. | 102 00 03 37,070 amp gt 00 03 39,829 И так мы используем линейную регрессию. |
Our first learning algorithm will be linear regression. | Нашим первым алгоритмом будет линейная рагрессия. |
By now, you've seen a couple different learning algorithms, linear regression and logistic regression. | К этому моменту вы уже видели пару разных алгоритмов обучения линейную и логистическую регрессии. |
But if you implement the algorithm written up here then you have a working implementation of linear regression with multiple features. | Но если вы реализуете алгоритм написанный здесь, тогда у вас будет рабочая реализация линейной регрессии с множеством параметров. |
learning algorithm, that'll give us our linear regression algorithm. | Это даст нам наш первый обучающийся алгоритм, алгоритм линейной регрессии. |
You now know about linear regression and gradient descent. | Теперь вы знаете о линейной регрессии и градиентном спуске. |
The r2 for the resulting linear regression was 0.55 (fig. | Величина r2 для результирующей линейной регрессии составила 0,55 (график III). |
Thrun In this question I quiz you about linear regression. | В этот раз я хотел бы задать вопрос о линейной регрессии. |
Right? This was our objective function for the linear regression. | Это был наш критерий выбора для линейной регрессии. |
This model is called linear regression or this, for example, is actually linear regression with one variable, with the variable being x. Predicting all the prices as functions of one variable X. And another name for this model is univariate linear regression. | Она носит название линейной регрессии, или в данном конкретном случае эта линейная регрессия одной переменной, где переменной является X, так как мы предсказываем все цены с помощью одной переменной X. |
And in particular I also want to tell you about polynomial regression allows you to use the machinery of linear regression to fit very complicated, even very non linear functions. | В частности я также хочу рассказать вам о том, как полиномиальная регрессия позволяет вам использовать механику линейной регрессии, чтобы подходить (делать похожие приближения) для очень сложных, даже нелинейных функций. |
So this is going to be my overall objective function for linear regression. | И это будет моя конечная целевая функция для линейной регрессии. |
That's our gradient descent algorithm, which should be familiar, and you see the linear linear regression model with our linear hypothesis and our squared error cost function. | Это наш алгоритм градиентного спуска, который должен быть вам знаком, и вы видите модель линейной регрессии с нашей линейной гипотезой и нашей среднеквадратичной ошибкой в качестве целевой функции |
We saw how feature scaling can help gradient descents converge faster for linear regression. | Мы видели, как масштабирование параметров может помочь градиентному спуску сходиться быстрее для линейной регрессии. |
And this seems a pretty bad thing for linear regression to have done, right? | 150 00 05 14,580 amp gt 00 05 16,104 Это очень 151 00 05 16,104 amp gt 00 05 18,761 плохо, то что нам дает линейная регрессия, так? |
And no surprise for linear regression the cost for you to define is that. | И не удивительно, что для линейной регрессии стоимость, которую мы определили равна 1 2 умножить на возведённую в квадрат разницу между тем, что алгоритм предсказал, и фактическим значением, которое мы наблюдаем для Y. |
And, just to give this another name, this is also called multivariate linear regression. | И, только дадим этому другое название, это также называется многомерная (множественная) линейная регрессия. |
On this slide, we looked at over fitting for the case of linear regression. | На этом слайде мы видели переоценку в случае линейной регрессии. |
And univariate is just a fancy way of saying one variable. So, that's linear regression. | И другое имя для этой можели одномерная линейная регрессия, где одномерная это всего лишь более ученое слово для функции одной переменной. |
So, applying linear regression to a classification problem usually isn't, often isn't a great idea. | 170 00 05 56,630 amp gt 00 05 59,055 Итак, применение линейной регрессии 171 00 05 59,080 amp gt 00 06 01,240 для решения задач классификации, 172 00 06 01,240 amp gt 00 06 04,461 обычно не очень хорошая идея. |
In linear regression we have a training set, like maybe the one I've plotted here. | В линейной регрессии у нас есть тренировочный набор, вроде того как я нарисовал здесь. |
Back when we were developing the linear regression model, we use the following cost function. | Когда мы ранее разрабатывали модель линейной регрессии, мы использовали следующую функцию затрат (целевую функцию). |
Now if you take this update rule and compare it to what we were doing for linear regression, you might be surprised to realize that, well, this equation was exactly what we had for linear regression. | Теперь, если вы возьмёте это правило обновления и сравните его с тем, которое мы делали для линейной регрессии вы можете быть удивлены, поняв, что ну, это уравнение было в точности таким же, как то, которое у нас было для линейной регрессии. |
For linear regression, we compute the quotation B and A, and I give you the formulas | Для исследования линейной регрессии, рассмотрим коэффициенты b и a. |
Maybe it's a cost function from linear regression. Maybe it's some other function we want to minimize. | Может быть это целевая функция из задачи линейной регрессии, а может какая либо иная функция, которую мы хотим минимизировать. |
And if you implement this you will get a working implementation of gradient descent for multivariate linear regression. | И если вы реализуете это, вы получите рабочую реализацию градиентного спуска для многомерной линейной регрессии. |
in this video we will start to talk about a new version of linear regression that's more powerful. | В этом видео мы начнем разговаривать о новой версии ленейной регрессии, более мощной. |
After splitting the data by biotype, best subsets multiple linear regression provided relationships between five input factors and gs that accounted for 22.4 and 25.7 of the variation for NC R and NC S respectively. | После разбивки данных по биотипам множественная линейная регрессия в отношении наилучших подмножеств позволила получить соотношения между пятью входными факторами и значением gs, которые составили 22,4 and 25,7 по показателю вариации для NC R и NC S, соответственно. |
So, using a vectorized implementation, you should be able to get a much more efficient implementation of linear regression. | 367 00 13 31,500 amp gt 00 13 33,769 Так, с помощью векторизованной реализации, вы 368 00 13 33,769 amp gt 00 13 34,688 должны получить 369 00 13 34,688 amp gt 00 13 37,761 гораздо более эффективную реализацию линейной регрессии. |
Using the machinery of multivariant linear regression, we can do this with a pretty simple modification to our algorithm. | Используя механику многомерной линейной регрессии, мы можем сделать эту довольно простую модификацию нашему алгоритму. |
So hopefully you now know why if you have a causation problem using linear regression isn't a good idea . | 227 00 07 55,820 amp gt 00 07 57,716 Я надеюсь вы поняли 228 00 07 57,716 amp gt 00 07 59,180 почему 229 00 07 59,280 amp gt 00 08 01,411 если вы решаете задачу классификации, использование 230 00 08 01,411 amp gt 00 08 03,229 линейной регрессии не является хорошей идеей. |
You might build a linear regression model like this where frontage is your first feature x1 and and depth is your second feature x2, but when you're applying linear regression, you don't necessarily have to use just the features x1 and x2 that you're given. | Вы можете построить модель линейной регрессии, как эта, где ширина фасада это ваш первый параметр х1 и глубина это второй параметр х2, но когда вы применяете линейную регрессию, не обязательно использовать только параметры х1 и х2, данные вам. |
So whereas for linear regression we had H of X equals theta transpose X, now the definition of H of | Так что тогда как для линейной регрессии мы имели H от X равное тета транспонировнная на X, теперь определение h от |
So, in regularization, what we're going to do, is take our cost function, here's my cost function for linear regression. | Так в реуляризации мы возьмём нашу целевую функцию, вот моя функция стоимости для линейной регрессии. |
But even if you don't understand it, the normal equation and linear regression, you should really get that to work okay. | Но даже если вы его не поймёте, всё равно нормальное уравнение и линейная регрессия будут работать нормально. |
Related searches : Multiple Linear Regression - Linear Regression - Multiple Regression - Linear Regression Equation - A Linear Regression - Stepwise Linear Regression - Linear Regression Line - Linear Regression Model - Simple Linear Regression - Non-linear Regression - Linear Regression For - Multiple Regression Model - Multiple Logistic Regression