Translation of "linear regression equation" to Russian language:


  Dictionary English-Russian

Equation - translation : Linear - translation : Linear regression equation - translation : Regression - translation :

  Examples (External sources, not reviewed)

Linear Regression
Регрессионный анализ
Linear regression?
Исследовали линейную регрессию?
Multiple linear regression
А. Множественная линейная регрессия
So, here's our linear regression algorithm.
Вот наш алгоритм линейной регрессии.
So are linear regression and logistic regression different algorithms or not?
Так линейная регрессия и логистическая регрессия это различные алгоритмы или нет?
So that's linear regression with gradient descent.
Итак, это были линейная регрессия с градиентным спуском.
And thus, using linear regression this way.
102 00 03 37,070 amp gt 00 03 39,829 И так мы используем линейную регрессию.
Now if you take this update rule and compare it to what we were doing for linear regression, you might be surprised to realize that, well, this equation was exactly what we had for linear regression.
Теперь, если вы возьмёте это правило обновления и сравните его с тем, которое мы делали для линейной регрессии вы можете быть удивлены, поняв, что ну, это уравнение было в точности таким же, как то, которое у нас было для линейной регрессии.
But even if you don't understand it, the normal equation and linear regression, you should really get that to work okay.
Но даже если вы его не поймёте, всё равно нормальное уравнение и линейная регрессия будут работать нормально.
Our first learning algorithm will be linear regression.
Нашим первым алгоритмом будет линейная рагрессия.
By now, you've seen a couple different learning algorithms, linear regression and logistic regression.
К этому моменту вы уже видели пару разных алгоритмов обучения линейную и логистическую регрессии.
learning algorithm, that'll give us our linear regression algorithm.
Это даст нам наш первый обучающийся алгоритм, алгоритм линейной регрессии.
You now know about linear regression and gradient descent.
Теперь вы знаете о линейной регрессии и градиентном спуске.
You now know about linear regression with multiple variables.
Теперь вы знаете о линейной регрессии с многими переменными.
But for this specific model of linear regression, the normal equation can give you a alternative that can be much faster, than gradient descent.
Но для этой конкретной модели линейной регрессии, нормальное уравнение может дать вам альтернативу, которая может быть значительно быстрее, чем градиентный спуск.
The r2 for the resulting linear regression was 0.55 (fig.
Величина r2 для результирующей линейной регрессии составила 0,55 (график III).
Thrun In this question I quiz you about linear regression.
В этот раз я хотел бы задать вопрос о линейной регрессии.
Right? This was our objective function for the linear regression.
Это был наш критерий выбора для линейной регрессии.
This model is called linear regression or this, for example, is actually linear regression with one variable, with the variable being x. Predicting all the prices as functions of one variable X. And another name for this model is univariate linear regression.
Она носит название линейной регрессии, или в данном конкретном случае эта линейная регрессия одной переменной, где переменной является X, так как мы предсказываем все цены с помощью одной переменной X.
And in particular I also want to tell you about polynomial regression allows you to use the machinery of linear regression to fit very complicated, even very non linear functions.
В частности я также хочу рассказать вам о том, как полиномиальная регрессия позволяет вам использовать механику линейной регрессии, чтобы подходить (делать похожие приближения) для очень сложных, даже нелинейных функций.
So this is going to be my overall objective function for linear regression.
И это будет моя конечная целевая функция для линейной регрессии.
That's our gradient descent algorithm, which should be familiar, and you see the linear linear regression model with our linear hypothesis and our squared error cost function.
Это наш алгоритм градиентного спуска, который должен быть вам знаком, и вы видите модель линейной регрессии с нашей линейной гипотезой и нашей среднеквадратичной ошибкой в качестве целевой функции
The best fit using multiple linear regression was established using the following two equations
Наилучшее соответствие на основе множественной линейной регрессии было установлено с использованием следующих двух уравнений
We saw how feature scaling can help gradient descents converge faster for linear regression.
Мы видели, как масштабирование параметров может помочь градиентному спуску сходиться быстрее для линейной регрессии.
And this seems a pretty bad thing for linear regression to have done, right?
150 00 05 14,580 amp gt 00 05 16,104 Это очень 151 00 05 16,104 amp gt 00 05 18,761 плохо, то что нам дает линейная регрессия, так?
And no surprise for linear regression the cost for you to define is that.
И не удивительно, что для линейной регрессии стоимость, которую мы определили равна 1 2 умножить на возведённую в квадрат разницу между тем, что алгоритм предсказал, и фактическим значением, которое мы наблюдаем для Y.
And, just to give this another name, this is also called multivariate linear regression.
И, только дадим этому другое название, это также называется многомерная (множественная) линейная регрессия.
On this slide, we looked at over fitting for the case of linear regression.
На этом слайде мы видели переоценку в случае линейной регрессии.
The radial Kepler equation is used for linear (radial) orbits (ε 1).
Движение по прямой линии (ε 1) описывается радиальным уравнением Кеплера .
Now, all of the sudden, I have a non linear differential equation.
Теперь все внезапной, у меня не линейная Дифференциальное уравнение.
And univariate is just a fancy way of saying one variable. So, that's linear regression.
И другое имя для этой можели одномерная линейная регрессия, где одномерная это всего лишь более ученое слово для функции одной переменной.
So, applying linear regression to a classification problem usually isn't, often isn't a great idea.
170 00 05 56,630 amp gt 00 05 59,055 Итак, применение линейной регрессии 171 00 05 59,080 amp gt 00 06 01,240 для решения задач классификации, 172 00 06 01,240 amp gt 00 06 04,461 обычно не очень хорошая идея.
In linear regression we have a training set, like maybe the one I've plotted here.
В линейной регрессии у нас есть тренировочный набор, вроде того как я нарисовал здесь.
Back when we were developing the linear regression model, we use the following cost function.
Когда мы ранее разрабатывали модель линейной регрессии, мы использовали следующую функцию затрат (целевую функцию).
In this video, we'll talk about the normal equation, which for some linear regression problems, will give us a much better way to solve for the optimal value of the parameters theta.
В этой лекции мы будем говорить о нормальном уравнении (normal equation, метод наименьших квадратов), которое для некоторых задач линейной регрессии, существенно упрощает процесс поиска оптимального значения параметров тета.
Now the second thing we have to figure out is this linear or is this a non linear differential equation?
Теперь вторая вещь, которую нам нужно выяснить это линейная или это нелинейное дифференциальное уравнение?
In particular let's talk about how to use gradient descent for linear regression with multiple features.
В частности поговорим о том как использовать градиентный спуск для линейной регрессии со множеством параметров.
For linear regression, we compute the quotation B and A, and I give you the formulas
Для исследования линейной регрессии, рассмотрим коэффициенты b и a.
Maybe it's a cost function from linear regression. Maybe it's some other function we want to minimize.
Может быть это целевая функция из задачи линейной регрессии, а может какая либо иная функция, которую мы хотим минимизировать.
This article is about the Hill differential equation for the equation used in biochemistry see Hill equation (biochemistry) In mathematics, the Hill equation or Hill differential equation is the second order linear ordinary differential equation formula_1where f(t) is a periodic function.
Уравнение Хилла (Дж.Хилл, 1886) линейное дифференциальное уравнение второго порядка formula_1где f(t) периодическая функция.
And if you implement this you will get a working implementation of gradient descent for multivariate linear regression.
И если вы реализуете это, вы получите рабочую реализацию градиентного спуска для многомерной линейной регрессии.
in this video we will start to talk about a new version of linear regression that's more powerful.
В этом видео мы начнем разговаривать о новой версии ленейной регрессии, более мощной.
The linear regression will have a large number of features and for some of the other algorithms that we'll see in this course, because, for them, the normal equation method just doesn't apply and doesn't work.
Линейная регрессия будет иметь большое количество параметров и для некоторых других алгоритмов, которые мы увидим в этом курсе, потому что для них метод нормального уравнения (наименьших квадратов) не применяется и не работает.
So a differential equation is linear if all of the functions and its derivatives are essentially, well for lack of a better word, linear.
Так что дифференциальное уравнение линейной, если все функции и его производные являются по существу, ну для отсутствия в лучшего слова, линейные.
So, using a vectorized implementation, you should be able to get a much more efficient implementation of linear regression.
367 00 13 31,500 amp gt 00 13 33,769 Так, с помощью векторизованной реализации, вы 368 00 13 33,769 amp gt 00 13 34,688 должны получить 369 00 13 34,688 amp gt 00 13 37,761 гораздо более эффективную реализацию линейной регрессии.

 

Related searches : Regression Equation - Linear Regression - Linear Equation - A Linear Regression - Linear Multiple Regression - Stepwise Linear Regression - Multiple Linear Regression - Linear Regression Line - Linear Regression Model - Simple Linear Regression - Non-linear Regression - Linear Regression For