Optimización Univariante vs Optimización Multivariante

Wikipedia define la optimización como un problema en el que maximizas o minimizas una función real eligiendo sistemáticamente valores de entrada de un conjunto permitido y calculando el valor de la función. Eso significa que cuando hablamos de optimización siempre estamos interesados ​​en encontrar la mejor solución. Entonces, digamos que uno tiene alguna forma funcional (por ejemplo, en la forma de f(x)) y está tratando de encontrar la mejor solución para esta forma funcional. Ahora bien, ¿qué significa mejor? Uno podría decir que está interesado en minimizar esta forma funcional o maximizar esta forma funcional.
Generalmente, un problema de optimización tiene tres componentes.

minimizar f(x),
wrt x,  
sujeto a a < x < b 

donde, f(x) : Función objetivo 
x : Variable de decisión 
a < x < b : Restricción 
 

Dependiendo del número de variables de decisión, la optimización se puede clasificar en dos partes,

  1. Problemas de optimización univariante: la optimización univariante se puede definir como una optimización no lineal sin restricciones y solo hay una variable de decisión en esta optimización para la que estamos tratando de encontrar un valor.

    mín f(x)
    sobre x
    x ∈ R

  2. Problemas de optimización multivariante: en un problema de optimización multivariante debe haber más de una variable de decisión en esta optimización para la que estamos tratando de encontrar un valor.

    min f(x 1 , x 2 , x 3 …..x n )

A continuación se muestra una tabla de diferencias entre la optimización univariante y la optimización multivariante:

Optimización univariante Optimización Multivariante
La optimización univariante se puede definir como una optimización no lineal sin restricciones y solo hay una variable de decisión en esta optimización para la que estamos tratando de encontrar un valor.

mín f(x)
sobre x
x ∈ R

Entonces, cuando observa este problema de optimización, generalmente lo escribe en esta forma anterior donde dice que va a minimizar f (x) , y esta función se llama función objetivo. Y la variable que puede usar para minimizar esta función, que se llama la variable de decisión, se escribe a continuación así: wrt x aquí y también dice que x es continua, es decir, podría tomar cualquier valor en la línea de números reales.

En un problema de optimización multivariado, múltiples variables actúan como variables de decisión en el problema de optimización.

z = f(x 1 , x 2 , x 3 … ..x norte )

Entonces, cuando observa este tipo de problemas, una función general z podría ser una función no lineal de las variables de decisión x 1 , x 2 , x 3 a x n . Entonces, hay n variables que uno podría manipular o elegir para optimizar esta función z.

En el caso de un problema de optimización univariante, solo hay una variable de decisión. En el caso de un problema de optimización multivariante, hay más de una variable de decisión.
En un problema de optimización univariable, x es una variable escalar y no una variable vectorial. En un problema de optimización multivariante, x puede ser una variable escalar o una variable vectorial.
Se podría explicar la optimización univariante usando imágenes en dos dimensiones porque en la dirección x teníamos el valor de la variable de decisión y en la dirección y teníamos el valor de la función. Sin embargo, si se trata de optimización multivariante, entonces tenemos que usar imágenes en tres dimensiones.
En un problema de optimización univariante no hay restricción. En un problema de optimización multivariante puede no haber un caso de restricción o un caso de restricción de igualdad o un caso de restricción de desigualdad.
En caso de optimización univariada, las condiciones necesarias de primer orden para que x sea el minimizador de la función f(x) es f'(x) = 0 En caso de optimización multivariante sin restricciones, las condiciones necesarias de primer orden para que x̄ * sea el minimizador de la función f(x̄) es ∇ f(x̄ * ) = 0
En caso de optimización univariada, la condición de suficiencia de segundo orden para que x sea el minimizador de la función f(x) es f”(x) > 0 En caso de optimización multivariante sin restricciones, la condición de suficiencia de segundo orden para que x̄ * sea el minimizador de la función f(x̄) es
2 f(x̄ * ) > 0

Publicación traducida automáticamente

Artículo escrito por AmiyaRanjanRout y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *