TORIma Academia Logo TORIma Academia
Optimización matemática (Mathematical optimization)
Ciencias

Optimización matemática (Mathematical optimization)

TORIma Academia — Matemáticas

Mathematical optimization

Optimización matemática (Mathematical optimization)

La optimización matemática (optimización alternativamente escrita) o programación matemática es la selección del mejor elemento, con respecto a algunos criterios,...

Optimización matemática (alternativamente escrita como optimización) o programación matemática es el proceso de seleccionar un elemento óptimo, basándose en criterios específicos, de un conjunto definido de alternativas disponibles. Por lo general, se clasifica en dos subcampos principales: optimización discreta y optimización continua. Los problemas de optimización surgen en varias disciplinas cuantitativas, que van desde la informática y la ingeniería hasta la investigación de operaciones y la economía, y la búsqueda de metodologías de solución efectivas ha sido un enfoque central en las matemáticas durante siglos.

Desde una perspectiva más amplia, un problema de optimización implica maximizar o minimizar una función de valor real mediante la selección sistemática de valores de entrada de un dominio permisible y la posterior evaluación de la salida de la función. Extender la teoría de la optimización y sus técnicas asociadas a diversas formulaciones de problemas representa un dominio importante dentro de las matemáticas aplicadas.

Problemas de optimización

Los problemas de optimización normalmente se clasifican en dos categorías principales, según la naturaleza de sus variables, específicamente si son continuas o discretas:

Un problema de optimización se puede expresar formalmente de la siguiente manera:

Dado: Una función f : Un R {\displaystyle f:A\rightarrow \mathbb {R} } mapeo de un conjunto A a los números reales.
Buscado: Un elemento x§56§ ∈ A tal que f(x§1516§) ≤ f(x) para todo xA (que representa la minimización) o tal que f(x§3334§) ≥ f(x) para todo xA (que representa maximización).

Este tipo de formulación se denomina problema de optimización o problema de programación matemática. Este término, aunque no está directamente asociado con la programación informática, sigue prevaleciendo, por ejemplo, en la programación lineal. Dentro de este marco integral se pueden modelar eficazmente numerosos desafíos teóricos y del mundo real.

Dada la validez de la siguiente equivalencia:

f ( x §1617§ ) f ( x ) f ( x §5152§ ) f ( x ) , {\displaystyle f(\mathbf {x} _{0})\geq f(\mathbf {x} )\Leftrightarrow -f(\mathbf {x} _{0})\leq -f(\mathbf {x} ),}

es suficiente abordar únicamente los problemas de minimización. Por el contrario, un enfoque igualmente válido implicaría centrarse exclusivamente en problemas de maximización.

En física, los problemas formulados con esta técnica a menudo se denominan minimización de energía, donde el valor de la función f significa la energía del sistema bajo consideración. Dentro del aprendizaje automático, la evaluación continua de la calidad de un modelo de datos es imperativa, lo que generalmente se logra mediante una función de costo donde un valor mínimo indica un conjunto de parámetros potencialmente óptimos asociados con el menor error posible.

El conjunto A normalmente constituye un subconjunto del espacio euclidiano R n {\displaystyle \mathbb {R} ^{n}} . Este subconjunto se define frecuentemente por una serie de restricciones, que pueden ser igualdades o desigualdades que todos los elementos de A deben satisfacer. El dominio A para la función f se conoce como espacio de búsqueda o conjunto de opciones, y sus elementos individuales se designan como soluciones candidatas o soluciones factibles.

La función f se conoce con varios nombres, entre ellos función objetiva, criterio función, función de pérdida o función de costo cuando el objetivo es la minimización. Para problemas de maximización, puede denominarse función de utilidad o función de aptitud. En disciplinas específicas, también se la conoce como función energética o energía funcional. Una solución óptima se define como una solución factible que minimiza o maximiza la función objetivo.

Dentro del campo de las matemáticas, los problemas de optimización estándar generalmente se formulan como tareas de minimización.

Un mínimo local, denotado como x*, se caracteriza como un elemento para el cual un valor positivo δ > 0 existe y satisface la condición de que:

x A donde x x δ , {\displaystyle \forall \mathbf {x} \in A\;{\text{where}}\;\left\Vert \mathbf {x} -\mathbf {x} ^{\ast }\right\Vert \leq \delta ,\,}

la desigualdad f(x*) ≤ f(x) se satisface;

Esto implica que dentro de una vecindad específica de x*, todos los valores de la función son mayores o iguales que el valor en x*. Los máximos locales se caracterizan por una definición análoga.

Aunque un mínimo local representa un valor superior o igual al de sus elementos vecinos inmediatos, un mínimo global supera o iguala el valor de cada elemento factible. Normalmente, en problemas de minimización, pueden existir múltiples mínimos locales a menos que la función objetivo sea convexa. Para un problema convexo, un mínimo local interior (uno que no está ubicado en el límite del conjunto factible) también constituye el mínimo global. Sin embargo, un problema no convexo puede poseer varios mínimos locales, y no todos necesariamente califican como mínimos globales.

Numerosos algoritmos diseñados para abordar problemas no convexos, incluidos la mayoría de los solucionadores comerciales, con frecuencia no pueden diferenciar entre soluciones localmente óptimas y globalmente óptimas, y a menudo tratan los óptimos locales como las verdaderas soluciones al problema. La optimización global es un campo especializado dentro de las matemáticas aplicadas y el análisis numérico dedicado a crear algoritmos deterministas que pueden garantizar la convergencia a la solución óptima real de un problema no convexo dentro de un período de tiempo finito.

Convenciones de notación

Los problemas de optimización se representan frecuentemente utilizando sistemas de notación específicos. Los siguientes ejemplos ilustran esto:

Determinación de los valores mínimo y máximo de una función

Examine la notación siguiente:

min x R ( x §3132§ + §3738§ ) {\displaystyle \min _{x\in \mathbb {R} }\;\left(x^{2}+1\right)}

Esta notación significa el valor más bajo posible de la función objetivo x§34§ + 1, donde x se selecciona del conjunto de números reales R {\displaystyle \mathbb {R} } . En este caso específico, el valor mínimo es 1, que se logra cuando x es igual a 0.

De manera similar, la notación

max x R §2324§ x {\displaystyle \max _{x\in \mathbb {R} }\;2x}

busca identificar el valor más alto posible de la función objetivo 2x, donde x representa cualquier número real. Sin embargo, en este escenario, no existe un máximo finito porque la función objetivo no está acotada, lo que lleva a un resultado de "infinito" o "indefinido".

Argumentos de entrada óptimos

La siguiente notación ilustra:

a r g m i n x ( , §4344§ ] x §5657§ + §6263§ , {\displaystyle {\underset {x\in (-\infty ,-1]}{\operatorname {arg\,min} }}\;x^{2}+1,}

Alternativamente, esto se puede expresar como:

a r g m i n x x §3435§ + §4041§ , sujeto a: x ( , §7071§ ] . {\displaystyle {\underset {x}{\operatorname {arg\,min} }}\;x^{2}+1,\;{\text{sujeto a:}}\;x\in (-\infty ,-1].}

Esta expresión identifica los valores de argumento x dentro del intervalo (−∞,−1] que producen el mínimo para la función objetivo x§78§ + 1. Es importante tener en cuenta que esta consulta no busca el valor mínimo de la función en sí, sino más bien los argumentos que lo producen. En consecuencia, la solución es x = −1, dado que x = 0 es inviable, lo que significa que queda fuera del conjunto factible definido.

De manera análoga,

a r g m a x x [ §3536§ , §3940§ ] , y R x cos y , {\displaystyle {\underset {x\in [-5,5],\;y\in \mathbb {R} }{\operatorname {arg\,max} }}\;x\cos y,}

Dicho de forma alternativa,

a r g m a x x , y x porque y , sujeto a: x [ §6768§ , §7172§ ] , y R , {\displaystyle {\underset {x,\;y}{\operatorname {arg\,max} }}\;x\cos y,\;{\text{sujeto a:}}\;x\in [-5,5],\;y\in \mathbb {R} ,}

Esto denota el par(es) {x, y} que maximiza(n) el valor de la función objetivo x cos y, sujeto a la restricción de que x esté dentro del intervalo [−5,5]. El valor máximo específico de la expresión no es relevante en este contexto. En consecuencia, las soluciones son pares estructurados como {5, 2kπ} y {−5, (2k + 1)π}, donde k representa cualquier número entero.

Los operadores arg min y arg max se indican alternativamente como argmin y argmax, que significan respectivamente el argumento del mínimo y el argumento del máximo.

Historial

Fermat y Lagrange desarrollaron fórmulas basadas en cálculo para identificar puntos óptimos. Por el contrario, Newton y Gauss introdujeron metodologías iterativas para acercarse a un óptimo.

George B. Dantzig acuñó el término "programación lineal" para describir escenarios de optimización específicos; sin embargo, una parte sustancial de la teoría subyacente había sido establecida previamente por Leonid Kantorovich en 1939. Es importante señalar que Programación, en este contexto, no pertenece a la programación de computadoras; más bien, se origina en el uso por parte del ejército de los Estados Unidos del término programa para denotar programas propuestos de entrenamiento y logística, que constituyeron los problemas que Dantzig investigó durante ese período. Dantzig publicó posteriormente el algoritmo Simplex en 1947. Al mismo tiempo, John von Neumann y otros investigadores contribuyeron a los fundamentos teóricos de la programación lineal, incluida la teoría de la dualidad.

Otros investigadores destacados en el campo de la optimización matemática incluyen:

Subcampos principales

Varios subcampos desarrollan principalmente técnicas de optimización dentro de contextos dinámicos, que involucran específicamente la toma de decisiones a lo largo del tiempo:

Optimización multiobjetivo

La incorporación de múltiples objetivos en un problema de optimización aumenta inherentemente su complejidad. Por ejemplo, la optimización de un diseño estructural normalmente busca tanto ligereza como rigidez. Cuando los objetivos entran en conflicto, se hace necesaria una compensación, lo que potencialmente resulta en un diseño único más liviano, un diseño único más rígido y una gama infinita de diseños que representan compromisos entre peso y rigidez. El conjunto de diseños de compensación que mejoran un criterio y potencialmente disminuyen otro se denomina conjunto de Pareto. La representación gráfica del peso versus la rigidez para estos diseños óptimos forma la frontera de Pareto.

Un diseño se considera "óptimo de Pareto" (también conocido como "eficiente de Pareto" o perteneciente al conjunto de Pareto) si ningún otro diseño lo domina. La dominación ocurre cuando un diseño es inferior en algunos aspectos y superior en ninguno en comparación con otro diseño, lo que lo hace no óptimo de Pareto.

La selección de una "solución favorita" de un conjunto de soluciones "óptimas de Pareto" generalmente se asigna a quien toma las decisiones. Esto implica que formular un problema como optimización multiobjetivo indica una falta de información, específicamente con respecto a la priorización relativa de los objetivos deseables. En ciertos escenarios, esta información faltante se puede obtener a través de sesiones interactivas con quien toma las decisiones.

Los problemas de optimización multiobjetivo se han generalizado aún más a problemas de optimización vectorial, en los que el orden parcial no está necesariamente definido por el criterio de Pareto.

Optimización multimodal y global

Los problemas de optimización frecuentemente presentan multimodalidad, lo que significa que abarcan varias soluciones efectivas. Estas soluciones pueden ser uniformemente óptimas a nivel global (con valores de función de costos idénticos) o comprender una combinación de resultados óptimos a nivel global y local. El objetivo principal de un optimizador multimodal es identificar todas, o al menos un subconjunto significativo, de estas múltiples soluciones.

Las técnicas de optimización tradicionales, debido a su naturaleza iterativa, a menudo resultan inadecuadas para identificar múltiples soluciones. Esta limitación surge porque incluso con puntos de partida variados en múltiples ejecuciones de algoritmos, no hay seguridad de descubrir soluciones distintas.

Las metodologías destacadas para abordar problemas de optimización global, particularmente aquellos caracterizados por la presencia de múltiples extremos locales, incluyen algoritmos evolutivos, optimización bayesiana y recocido simulado.

Clasificación de Puntos Críticos y Extremos

El problema de la viabilidad

El problema de satisfacibilidad, también conocido como problema de viabilidad, implica identificar cualquier solución viable sin considerar su valor objetivo. Este escenario se puede conceptualizar como un caso específico de optimización matemática donde todas las soluciones factibles comparten un valor objetivo idéntico, lo que hace que cada solución sea óptima.

Numerosos algoritmos de optimización necesitan un punto factible inicial. Una estrategia común para lograrlo implica relajar las condiciones de viabilidad mediante la introducción de una variable de holgura; una holgura suficiente garantiza que cualquier punto de partida sea factible. Posteriormente, esta variable de holgura se minimiza hasta alcanzar un valor nulo o negativo.

Existencia de Optima

El teorema del valor extremo de Karl Weierstrass postula que una función continua de valor real definida en un conjunto compacto alcanzará sus valores máximo y mínimo. En términos más generales, una función semicontinua inferior en un conjunto compacto alcanzará su mínimo, mientras que una función semicontinua superior en un conjunto compacto alcanzará su máximo.

Condiciones necesarias para la optimización

Un teorema de Fermat afirma que los óptimos para problemas no restringidos ocurren en puntos estacionarios, caracterizados por una primera derivada cero o gradiente de la función objetivo. De manera más integral, los óptimos pueden ubicarse en puntos críticos donde la primera derivada o gradiente es cero o no está definido, o a lo largo del límite de la región factible. Una ecuación o sistema de ecuaciones que especifica que las primeras derivadas son iguales a cero en un óptimo interior se denomina "condición de primer orden" o un conjunto de condiciones de primer orden.

El método del multiplicador de Lagrange se puede emplear para identificar óptimos en problemas sujetos a restricciones de igualdad. Para los problemas que incorporan restricciones de igualdad y/o desigualdad, las 'condiciones de Karush-Kuhn-Tucker' proporcionan un marco para localizar los óptimos.

Condiciones suficientes para la optimización

Aunque la prueba de la primera derivada puede señalar extremos potenciales, no diferencia entre un mínimo, un máximo o un punto de silla. Para funciones objetivas que son dos veces diferenciables, estas distinciones se pueden hacer examinando la segunda derivada o la matriz de Hesse (la matriz de segundas derivadas) en problemas sin restricciones. En problemas restringidos, se utiliza el Hessiano bordeado, que incluye segundas derivadas tanto de la función objetivo como de las restricciones. Los criterios que distinguen los máximos o mínimos de otros puntos estacionarios se denominan "condiciones de segundo orden". Si una posible solución cumple las condiciones de primer orden, entonces su cumplimiento de las condiciones de segundo orden es suficiente para confirmar al menos la optimización local.

Sensibilidad y Continuidad de Optima

El teorema de la envolvente aclara la alteración en el valor de una solución óptima en respuesta a un cambio en un parámetro subyacente. El procedimiento analítico para cuantificar este cambio se denomina estática comparativa.

El teorema del máximo de Claude Berge, introducido en 1963, aclara la continuidad de una solución óptima en relación con sus parámetros subyacentes.

Cálculo de optimización

En problemas de optimización sin restricciones que involucran funciones dos veces diferenciables, los puntos críticos son identificables como puntos estacionarios donde el gradiente de la función objetivo es cero. En términos más generales, para problemas de minimización con funciones de Lipschitz convexas o localmente (como las que se encuentran en la minimización de funciones de pérdida de redes neuronales), un subgradiente cero confirma la identificación de un mínimo local. Además, la estimación del impulso positivo-negativo puede facilitar escapar de los mínimos locales y lograr la convergencia al mínimo global de la función objetivo.

Los puntos críticos se pueden categorizar aún más en función de la precisión de la matriz de Hesse: una hessiana definida positiva en un punto crítico indica un mínimo local; un hessiano definido negativo significa un máximo local; y un hessiano indefinido sugiere un punto de silla.

Los problemas de optimización restringidos se convierten frecuentemente en formas no restringidas mediante la aplicación de multiplicadores de Lagrange. Además, la relajación lagrangiana ofrece un método para derivar soluciones aproximadas para problemas complejos restringidos.

Si la función objetivo es convexa, cualquier mínimo local representa inherentemente un mínimo global. Se encuentran disponibles métodos numéricos eficientes, como las técnicas de puntos interiores, para minimizar funciones convexas.

Convergencia global

Cuando la función objetivo no es cuadrática, numerosos algoritmos de optimización emplean estrategias para garantizar que una subsecuencia de iteraciones converja hacia una solución óptima. Un método de garantía de convergencia fundamental y ampliamente utilizado implica búsquedas de líneas, que optimizan una función a lo largo de una única dimensión. Un enfoque alternativo, cada vez más frecuente, para garantizar la convergencia utiliza regiones de confianza. Tanto las búsquedas de líneas como las regiones de confianza son parte integral de las técnicas contemporáneas de optimización no diferenciables. Normalmente, los optimizadores globales presentan un rendimiento más lento en comparación con los optimizadores locales sofisticados (por ejemplo, BFGS); en consecuencia, a menudo se puede sintetizar un optimizador global eficaz iniciando un optimizador local desde múltiples puntos de partida distintos.

Técnicas de optimización computacional

Para abordar problemas de optimización, los investigadores pueden emplear algoritmos que concluyen dentro de un número finito de pasos, métodos iterativos diseñados para converger a una solución para clases de problemas específicos o heurísticas que ofrecen soluciones aproximadas, incluso si sus iteraciones no necesariamente convergen.

Algoritmos de optimización

Métodos iterativos

Los métodos iterativos empleados para resolver problemas de programación no lineal se diferencian por su dependencia de la evaluación de hessianos, gradientes o únicamente valores de funciones. Aunque la evaluación de Hessianas (H) y gradientes (G) puede mejorar la tasa de convergencia para funciones suficientemente suaves donde existen estas cantidades, tales evaluaciones elevan simultáneamente la complejidad computacional (o costo) por iteración. En ciertos escenarios, esta carga computacional puede llegar a ser prohibitivamente alta.

Un criterio principal para evaluar los optimizadores es el número de evaluaciones de funciones requeridas, ya que esto a menudo constituye un esfuerzo computacional significativo, que con frecuencia supera las operaciones internas del propio optimizador, que procesa principalmente N variables. Si bien los derivados ofrecen información detallada para los optimizadores, su cálculo es más desafiante; por ejemplo, aproximar el gradiente requiere al menos N+1 evaluaciones de funciones. Para aproximaciones de derivadas de segundo orden, compiladas dentro de la matriz de Hesse, el número de evaluaciones de funciones aumenta con N². El método de Newton, que requiere derivadas de segundo orden, incurre en un costo computacional por iteración proporcional a N² llamadas a funciones, mientras que un optimizador de gradiente puro más simple requiere solo N llamadas. Sin embargo, los optimizadores de gradiente suelen exigir más iteraciones que el algoritmo de Newton. La elección óptima con respecto al número de llamadas a funciones depende del problema específico.

Heurística

Además de los algoritmos de terminación finita y los métodos iterativos convergentes, también existen heurísticas. Una heurística se define como un algoritmo que, si bien no garantiza matemáticamente que localice la solución óptima, resulta valioso en contextos prácticos específicos.

Aplicaciones

Mecánica

Los problemas dentro de la dinámica de cuerpos rígidos, particularmente la dinámica de cuerpos rígidos articulados, frecuentemente requieren técnicas de programación matemática. Esto se debe a que la dinámica de cuerpos rígidos puede conceptualizarse como la resolución de una ecuación diferencial ordinaria en una variedad de restricciones, donde estas restricciones incluyen diversas condiciones geométricas no lineales, por ejemplo, "estos dos puntos siempre deben coincidir", "esta superficie no debe penetrar ninguna otra" o "este punto siempre debe estar en algún lugar de esta curva". Además, el cálculo de las fuerzas de contacto se puede abordar mediante la solución de un problema de complementariedad lineal, que también se puede interpretar como un problema de programación cuadrática (QP).

Numerosos problemas de diseño se formulan con frecuencia como programas de optimización; este dominio se denomina optimización del diseño. La optimización de la ingeniería constituye un subconjunto, mientras que un subcampo distinto y en expansión es la optimización del diseño multidisciplinario, que, aunque ampliamente aplicable, ha encontrado particular utilidad en los problemas de ingeniería aeroespacial.

Este enfoque es aplicable dentro de la cosmología y la astrofísica.

Economía y finanzas

La conexión intrínseca entre la economía y la optimización de los agentes se ve subrayada por una definición influyente que caracteriza la economía qua ciencia como el "estudio del comportamiento humano como una relación entre fines y medios escasos" que posee aplicaciones alternativas. La teoría de la optimización contemporánea abarca enfoques tradicionales y al mismo tiempo se cruza con la teoría de juegos y el análisis de los equilibrios económicos. Dentro del sistema de clasificación del Journal of Economic Literature, la programación matemática, las metodologías de optimización y los temas asociados se clasifican en JEL:C61-C63.

La microeconomía aborda con frecuencia problemas de optimización económica, en particular el problema de maximización de la utilidad y su correspondiente dual, el problema de minimización del gasto. Suponiendo un comportamiento consistente, se supone que los consumidores maximizan su utilidad, mientras que normalmente se supone que las empresas maximizan sus ganancias. Además, con frecuencia se modela a los agentes económicos como reacios al riesgo, lo que indica una preferencia por evitarlo. La teoría de la optimización también se aplica para modelar los precios de los activos, aunque el marco matemático fundamental implica la optimización de procesos estocásticos en lugar de la optimización estática. Además, la teoría del comercio internacional emplea principios de optimización para dilucidar la dinámica comercial entre países. La optimización de la cartera sirve como un ejemplo destacado de optimización multiobjetivo dentro del ámbito económico.

Los economistas han utilizado la teoría del control para modelar procesos dinámicos de toma de decisiones a lo largo del tiempo desde la década de 1970. Por ejemplo, se emplean modelos de búsqueda dinámica para analizar la conducta del mercado laboral. Existe una diferenciación fundamental entre los enfoques de modelización determinista y estocástico. Los macroeconomistas construyen modelos dinámicos de equilibrio general estocástico (DSGE), que caracterizan la dinámica económica general como resultado de las decisiones de optimización interdependientes tomadas por trabajadores, consumidores, inversores y entidades gubernamentales.

Ingeniería eléctrica

Las técnicas de optimización encuentran numerosas aplicaciones dentro de la ingeniería eléctrica, abarcando áreas como el diseño de filtros activos, la mitigación de campos parásitos en sistemas de almacenamiento de energía magnéticos superconductores, el diseño de mapeo espacial para estructuras de microondas, antenas de teléfonos y diseño basado en electromagnetismo. Desde sus inicios en 1993, las metodologías de cartografía espacial, a menudo combinadas con modelos sustitutos empíricos o basados ​​en la física adecuados, se han empleado ampliamente en la optimización del diseño validado electromagnéticamente de antenas y componentes de microondas. Además, las técnicas de optimización son parte integral del análisis del flujo de energía.

Ingeniería civil

Los principios de optimización se aplican ampliamente en diversos ámbitos de la ingeniería civil. En particular, la gestión de la construcción y la ingeniería del transporte representan subdisciplinas clave dentro de la ingeniería civil que exhiben una dependencia sustancial de la optimización. Los desafíos comunes de ingeniería civil abordados mediante la optimización incluyen operaciones de corte y relleno de carreteras, evaluaciones del ciclo de vida de estructuras e infraestructura, nivelación de recursos, distribución de recursos hídricos, gestión del tráfico y optimización de horarios.

Investigación de Operaciones

La investigación de operaciones constituye otra disciplina que emplea ampliamente técnicas de optimización. Este campo también aprovecha el modelado y la simulación estocásticos para facilitar mejores procesos de toma de decisiones. Existe una tendencia creciente en la investigación de operaciones a utilizar programación estocástica para modelar decisiones dinámicas que se ajustan en respuesta a eventos en evolución; estos problemas son susceptibles de soluciones derivadas de optimización a gran escala y metodologías de optimización estocástica.

Ingeniería de control

La optimización matemática juega un papel importante en el diseño de controladores contemporáneo. Los sistemas de control avanzados, incluido el control predictivo de modelos (MPC) y la optimización en tiempo real (RTO), integran la optimización matemática. Al operar en línea, estos algoritmos determinan de manera iterativa valores para variables de decisión (por ejemplo, aberturas de estrangulamiento en una planta de proceso) resolviendo repetidamente un problema de optimización matemática que incorpora restricciones del sistema y un modelo del sistema controlado.

Geofísica

Las técnicas de optimización se aplican habitualmente en los desafíos de estimación de parámetros geofísicos. A partir de un conjunto determinado de mediciones geofísicas, como registros sísmicos, es una práctica estándar deducir las propiedades físicas y las configuraciones geométricas de las rocas y fluidos subterráneos. La mayoría de los problemas geofísicos son inherentemente no lineales, lo que requiere la aplicación generalizada de metodologías tanto deterministas como estocásticas.

Modelado molecular

Las metodologías de optimización no lineal se emplean ampliamente en el campo del análisis conformacional.

Biología de sistemas computacionales

Las metodologías de optimización se emplean ampliamente en varios dominios dentro de la biología de sistemas computacionales, abarcando la construcción de modelos, el diseño de experimentos óptimos, la ingeniería metabólica y la biología sintética. Específicamente, se ha utilizado la programación lineal para determinar los rendimientos máximos alcanzables de productos de fermentación y para deducir redes reguladoras de genes a partir de diversos conjuntos de datos de microarrays, junto con redes reguladoras transcripcionales derivadas de datos de alto rendimiento. Además, la programación no lineal ha sido fundamental en el análisis del metabolismo energético y su aplicación a la ingeniería metabólica y la estimación de parámetros dentro de rutas bioquímicas.

Aprendizaje automático

Solucionadores

Notas

Notas

Boyd, Stephen P.; Vandenberghe, Lieven (2004). Optimización convexa. Cambridge: Prensa de la Universidad de Cambridge. ISBN 0-521-83378-7.

Ev rûpel ji bo arşîva zanînê ya TORÎma Akademî hatiye amadekirin. Agahî, wêne û lînkên derve dikarin li gorî çavkaniyên vekirî bên nûkirin.

Sobre este artículo

Información sobre Optimización matemática

Breve guía sobre la vida, investigaciones, descubrimientos e importancia científica de Optimización matemática.

Etiquetas de tema

Información sobre Optimización matemática Quién fue Optimización matemática Vida de Optimización matemática Investigaciones de Optimización matemática Descubrimientos de Optimización matemática Aportes científicos

Búsquedas comunes sobre este tema

  • ¿Quién fue Optimización matemática?
  • ¿Qué descubrió Optimización matemática?
  • ¿Qué aportes hizo Optimización matemática?
  • ¿Por qué es importante Optimización matemática?

Archivo de categoría

Archivo de Ciencia: Artículos y Temas Clave

Sumérgete en el vasto universo del conocimiento científico. Nuestra colección de artículos sobre Ciencia te invita a explorar desde los fundamentos de la biología molecular como el ADN y el ARN, hasta conceptos

Inicio Volver a Ciencias