Departamento de Engenharia Elétrica
Um dos tipos de barras, definidos anteriormente, é o $\small PV$ (barras de tensão controlada), nos quais a potência ativa e a magnitude da tensão são especificadas. Para este tipo de barras, a solução do fluxo de potência fornece o ângulo da tensão e a potência reativa.
Em um sistema de potência da vida real, os geradores não estão alocados à mesma distância dos centros de consumo (cargas) e seus custos de operação são diferentes.
Além disso, deve se considerar que, em condições normais de operação, a capacidade de geração do sistema é maior do que sua demanda total. Assim, existem muitas opções para programar a geração de energia do sistema.
No problema de despacho ótimo da geração em um sistema interconectado, o objetivo é determinar a programação de geração de potência ativa e reativa para cada usina geradora, de tal forma que os custos totais de geração sejam minimizados. Este problema também é chamado de fluxo de potência ótimo.
O fluxo de potência ótimo permite a minimização de funções objetivo selecionadas enquanto é mantido um desempenho do sistema aceitável em termos de limites de capabilidade de geração.
As funções objetivo podem ser, por exemplo, custos de geração, segurança do sistema e perdas técnicas do sistema.
A otimização de funções não-lineares é uma importante ferramenta em análise de sistema de energia elétrica e é parte de um tipo de otimização chamado Programação Não-linear (PNL), o qual é amplamente discutido em muitas referências bibliográficas.
O objetivo básico é a minimização/maximização de algum objetivo não-linear sujeito a um conjunto de restrições não-lineares que podem ser de igualdade ou desigualdade. As partes principais de um modelo de PNL são:
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $
sendo:
$\small X$: Variáveis de decisão. Grandezas sobre as quais se exerce controle visando atingir o objetivo especificado. Exemplo: Potência ativa e magnitude da tensão nas barras tipo $\small PV$.
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $
sendo:
$\small f \left({ X }\right)$: Função objetivo. Direciona a escolha dos valores das variáveis de decisão no sentido de otimizar determinada grandeza. Exemplo: Minimizar os custos de geração de energia.
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $
sendo:
$\small h_i \left({ X }\right) = 0$ e $\small g_j \left({ X }\right) \leq 0$: Restrições. Restringem os valores que as variáveis de decisão podem assumir. Exemplos: Balanço de potência ativa e reativa, capacidade de geração das usinas.
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $
sendo:
Parâmetros. Valores constantes que caracterizam um modelo de otimização particular. Exemplos: Limites de geração de potência reativa, limites de fluxo de potência das linhas de transmissão.
O problema de otimização não-linear irrestrita tem a seguinte forma:
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize X \in \Omega$
As ferramentas de otimização usadas para resolver problemas de otimização irrestritos têm origem dirata no cálculo multivariável.
A condição necessária para minimizar a função objetivo $\small f \left({ X }\right)$ é obtida calculando a derivada da função $\small f$ em relação a suas variáveis igualadas a zero, isto é:
$\small \frac{\partial f}{ \partial x_l} = 0; \ \ \forall l = 1, 2, \dots, n$; ou $\small \nabla f = 0$
$\small \nabla f = 0$
Sendo:
$\small \nabla f = \left({ \frac{\partial f}{ \partial x_1}, \frac{\partial f}{ \partial x_2}, \cdots, \frac{\partial f}{ \partial x_n} }\right) $
O elemento $\small \nabla f$ é conhecido como vetor Gradiente. Os termos associados com a segunda derivada de $\small f \left({ X }\right)$ dados por:
$\small H = \frac{\partial^2 f}{ \partial X^2} = 0$
A anterior expressão resulta em uma matriz simétrica chamada de matriz Hessiana.
Uma vez que a derivada da função é calculada em um ponto extremo ($\small {\widehat x_1}$, $\small {\widehat x_2}$, ..., $\small {\widehat x_n}$), para que $\small f$ tenha um mínimo relativo, a matriz Hessiana, avaliada no ponto ($\small {\widehat x_1}$, $\small {\widehat x_2}$, ..., $\small {\widehat x_n}$), deve ser definida positiva. Esta condição exige que todos os autovalores da matriz Hessiana, avaliados no mencionado ponto extremo, sejam positivos.
Dada uma matriz $\small A$ de dimensão $\small n \times n$, qualquer vector $\small X$ de valores diferentes de zero satisfaz a equação:
$\small AX = \lambda X $
Sendo $\small \lambda$ um factor de escala, chamado de autovetor e os elementos escalares de $\small \lambda$ chamados de autovalores.
Se $\small X \neq 0$, então $\small \lambda$ fornece as raízes da equação característica:
$\small \left| {A - \lambda I} \right| = 0$
Calcular os autovalores e os autovectores da matriz:
$\small A = \left[ {\begin{array}{*{20}{c}} 2&1\\ 1&2 \end{array}} \right]$
Os autovalores do problema são definidos como:
$\small \left[ {\begin{array}{*{20}{c}} 2&1\\ 1&2 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}} \end{array}} \right] = \lambda \left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}} \end{array}} \right] $
A característica polinomial é dada por:
$\small \left| {A - \lambda I} \right| = 0 $
Ou:
$\small \left| {\begin{array}{*{20}{c}} {2 - \lambda }&1\\ 1&{2 - \lambda } \end{array}} \right| = 0 \\ {\lambda ^2} - 4\lambda + 3 = 0 $
$\small \left| {\begin{array}{*{20}{c}} {2 - \lambda }&1\\ 1&{2 - \lambda } \end{array}} \right| = 0 \\ {\lambda ^2} - 4\lambda + 3 = 0 $
As raízes do polinómio $\small {\lambda ^2} - 4\lambda + 3 = 0$ são: $\small \lambda_1 = 3$ e $\small \lambda_2 = 1$. Então, os autovalores de $\small A$ são 3 e 1.
Os autovetores para $\small \lambda_1 = 3$ são:
$\small \left[ {\begin{array}{*{20}{c}} {2 - 3}&1\\ 1&{2 - 3} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 0\\ 0 \end{array}} \right]$
Portanto, assumindo um valor de $\small {x_1^{(1)}} = \frac{1}{{\sqrt 2 }}$:
$\small \left[ {\begin{array}{*{20}{c}} {x_1^{(1)}}\\ {x_2^{(1)}} \end{array}} \right] = \frac{1}{{\sqrt 2 }}\left[ {\begin{array}{*{20}{c}} 1\\ 1 \end{array}} \right]$
Os autovetoress para $\small \lambda_2 = 1$ são:
$\small \left[ {\begin{array}{*{20}{c}} {2 - 1}&1\\ 1&{2 - 1} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 0\\ 0 \end{array}} \right]$
Portanto, assumindo um valor de $\small {x_1^{(2)}} = \frac{1}{{\sqrt 2 }}$:
$\small \left[ {\begin{array}{*{20}{c}} {x_1^{(2)}}\\ {x_2^{(2)}} \end{array}} \right] = \frac{1}{{\sqrt 2 }}\left[ {\begin{array}{*{20}{c}} 1\\ -1 \end{array}} \right]$
Em resumo, o mínimo de uma função irrestrita é determinado calculando suas derivadas parciais igualadas a zero para um ponto extremo de avaliação específico ou de interesse.
Entre os pontos extremos, aqueles nos quais a matriz Hessiana da função seja definida positiva correspondem a mínimos locais.
Se há somente um mínimo local, então este mínimo também é global: caso contrário, a função deve ser avaliada em cada um dos mínimos locais para determinar o mínimo global.
Determinar o mínimo de:
$\scriptsize f\left( {{x_1},{x_2},{x_3}} \right) = x_1^2 + 2x_2^2 + 3x_3^2 + {x_1}{x_2} + {x_2}{x_3} - 8{x_1} - 16{x_2} - 32{x_3} + 110$
$\scriptsize f\left( {{x_1},{x_2},{x_3}} \right) = x_1^2 + 2x_2^2 + 3x_3^2 + {x_1}{x_2} + {x_2}{x_3} - 8{x_1} - 16{x_2} - 32{x_3} + 110$
Igualando a primeira derivada da função a zero, resulta em:
$\small \begin{array}{l} \frac{{\partial f}}{{\partial {x_1}}} = 2{x_1} + {x_2} - 8 = 0\\ \frac{{\partial f}}{{\partial {x_2}}} = {x_1} + 4{x_2} + {x_3} - 16 = 0\\ \frac{{\partial f}}{{\partial {x_3}}} = {x_2} + 6{x_3} - 32 = 0 \end{array} $
Ou:
$\small \left[ {\begin{array}{*{20}{c}} 2&1&0\\ 1&4&1\\ 0&1&6 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ {{x_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 8\\ {16}\\ {32} \end{array}} \right] $
$\small \left[ {\begin{array}{*{20}{c}} 2&1&0\\ 1&4&1\\ 0&1&6 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ {{x_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 8\\ {16}\\ {32} \end{array}} \right] $
A solução do anterior sistema linear de equações é dada por:
$\small \left[ {\begin{array}{*{20}{c}} {{{\widehat x}_1}}\\ {{{\widehat x}_2}}\\ {{{\widehat x}_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 3\\ 2\\ 5 \end{array}} \right]$
A função, avaliada no anterior ponto extremo, é:
$\small f\left( {3,2,5} \right) = 2 $
$\small \left[ {\begin{array}{*{20}{c}} {{{\widehat x}_1}}\\ {{{\widehat x}_2}}\\ {{{\widehat x}_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 3\\ 2\\ 5 \end{array}} \right]$
Para verificar se o ponto extremo determinado corresponde a um mínimo, avalia-se a segunda derivada da função para formar a matriz Hessiana:
$\small H\left( {\widehat X} \right) = \left[ {\begin{array}{*{20}{c}} 2&1&0\\ 1&4&1\\ 0&1&6 \end{array}} \right]$
Os autovalores da anterior matriz Hessiana são 1,55, 4,0 e 6,45, os quais são todos positivos. Assim, a matriz Hessiana é definida positiva e o ponto $\small \left( {3,2,5} \right) $ corresponde a um ponto mínimo.
O problema de otimização restrita com restrições de igualdade tem a seguinte forma:
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize X \in \Omega $
Este problema pode ser resolvido usando vários métodos. Um desses métodos é o de Multiplicadores de Lagrange.
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize X \in \Omega $
Através do Método de Multiplicadores de Lagrange, o problema restrito original é transformado em um problema irrestrito no qual as restrições são introduzidas na própria função objetivo. Este procedimento fornece uma função objetivo aumentada com $\small m$ novas variáveis $\small \lambda$, correspondentes às restrições de igualdade do problema original.
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize X \in \Omega $
Assim, a função objetivo aumentada, isto é, com as $\small m$ novas variáveis $\small \lambda$, assume a seguinte forma:
$\small \mathcal{L} = f \left({ X }\right) + \sum\limits_{i = 1}^m {{\lambda _i}} h_i \left({ X }\right) $
$\small \mathcal{L} = f \left({ X }\right) + \sum\limits_{i = 1}^m {{\lambda _i}} h_i \left({ X }\right) $
As condições necessárias de mínimo local de $\small \mathcal{L}$ são as seguintes:
$\small \frac{\partial \mathcal{L}}{\partial x_i} = \frac{\partial f \left({ X }\right)}{\partial x_i} + \sum\limits_{i = 1}^m {{\lambda _i}} \frac{\partial h_i \left({ X }\right)}{\partial x_i} = 0; \ \ \forall \ i = 1, 2, ..., n \\ \frac{\partial \mathcal{L}}{\partial \lambda_i} = h_i \left({ X }\right) = 0; \ \ \forall \ i = 1, 2, ..., m $
Usar o Método de Multiplicadores de Lagrange para determinar a mínima distância do centro do plano $\small xy$ ao círculo descrito por:
$\small {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} = 25$
A mínima distância é obtida minimizando o quadrado da distância, dado por:
$\small f\left( {x,y} \right) = {x^2} + {y^2} $
Sujeito à restrição de igualdade dada pelo círculo em questão:
$\small {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} = 25$
Usando os Multiplicadores de Lagrange para minimizar a função $\small f\left( {x,y} \right)$, sujeito à restrição dada pela equação do círculo, a função Lagrangiana assume a seguinte forma:
$\small \mathcal{L} = {x^2} + {y^2} + \lambda \left[ {{{\left( {x - 8} \right)}^2} + {{\left( {y - 6} \right)}^2} - 25} \right]$
$\small \mathcal{L} = {x^2} + {y^2} + \lambda \left[ {{{\left( {x - 8} \right)}^2} + {{\left( {y - 6} \right)}^2} - 25} \right]$
As condições necessárias para pontos extremos são:
$\small \frac{\partial \mathcal{L}}{\partial x} = 2{x} + \lambda \left( {2 x -16} \right) \ \ {\rm{ou}} \ \ 2 x \left( {\lambda + 1} \right) = 16 \lambda \\ \small \frac{\partial \mathcal{L}}{\partial y} = 2{y} + \lambda \left( {2 y -12} \right) \ \ {\rm{ou}} \ \ 2 y \left( {\lambda + 1} \right) = 12 \lambda \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} - 25 = 0$
A solução do anterior sistema de três equações fornece os pontos extremos do problema. Tais pontos extremos são:
$\small \left[ {\begin{array}{*{20}{c}} {{x^{(1)}}}\\ {{y^{(1)}}}\\ {{\lambda ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 4\\ 3\\ 1 \end{array}} \right] \hspace{0.5cm} {\rm{e}} \hspace{0.5cm} \left[ {\begin{array}{*{20}{c}} {{x^{(2)}}}\\ {{y^{(2)}}}\\ {{\lambda ^{(2)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {12}\\ 9\\ { - 3} \end{array}} \right]$
$\small \left[ {\begin{array}{*{20}{c}} {{x^{(1)}}}\\ {{y^{(1)}}}\\ {{\lambda ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 4\\ 3\\ 1 \end{array}} \right] \hspace{0.5cm} {\rm{e}} \hspace{0.5cm} \left[ {\begin{array}{*{20}{c}} {{x^{(2)}}}\\ {{y^{(2)}}}\\ {{\lambda ^{(2)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {12}\\ 9\\ { - 3} \end{array}} \right]$
Uma forma de verificar qual dos dois pontos extremos corresponde à distância mínima é simplesmente através do seu cálculo direto. Assim, pode ser conferido que o ponto a $\small \left({ 4, 3 }\right) $ corresponde à distância mínima com valor de 5.
$\small \frac{\partial \mathcal{L}}{\partial x} = 2{x} + \lambda \left( {2 x -16} \right) \ \ {\rm{ou}} \ \ 2 x \left( {\lambda + 1} \right) = 16 \lambda \\ \small \frac{\partial \mathcal{L}}{\partial y} = 2{y} + \lambda \left( {2 y -12} \right) \ \ {\rm{ou}} \ \ 2 y \left( {\lambda + 1} \right) = 12 \lambda \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} - 25 = 0$
Em muitos casos, não é possível determinar com facilidade o ponto extremo que corresponde ao mínimo da função objetivo. Outra alternativa é, por exemplo, construir e resolver uma nova função cirada usando as equações da primeira derivada do problema original. Assim, do sistema de equações anterior, substituindo as duas primeiras equações na terceira equação, tem-se que:
$\small f\left( \lambda \right) = \frac{{100{\lambda ^2}}}{{{{\left( {\lambda + 1} \right)}^2}}} - \frac{{200\lambda }}{{\lambda + 1}} + 75 = 0$
A função $\small f\left( \lambda \right)$ pode ser resolvida por qualquer método para funções contínuas (Método de Newton-Raphson, por exemplo).
Os problemas de otimização da vida real contêm restrições tanto de igualdade quanto de desigualdade. Os problemas de otimização deste tipo têm a seguinte forma:
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $
Os Multiplicadores de Lagrange são estendidos para incluir as restrições de desigualdade. Assim, são introduzidas $\small p$ variáveis $\mu$.
$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $
A função objetivo irrestrita aumentada é:
$\small \mathcal{L} = f \left({ X }\right) + \sum\limits_{i = 1}^m {{\lambda _i}} h_i \left({ X }\right) + \sum\limits_{j = 1}^p {{\mu _j}} g_j \left({ X }\right) $
$\small \mathcal{L} = f \left({ X }\right) + \sum\limits_{i = 1}^m {{\lambda _i}} h_i \left({ X }\right) + \sum\limits_{j = 1}^p {{\mu _j}} g_j \left({ X }\right) $
As condições necessárias para um mínimo local de $\small \mathcal{L}$ são:
$\small \frac{\partial \mathcal{L}}{\partial x_l} = 0; \ \ \forall \ l = 1, 2, ..., n \\ \frac{\partial \mathcal{L}}{\partial \lambda_i} = h_i \left({ X }\right) = 0; \ \ \forall \ i = 1, 2, ..., m \\ \frac{\partial \mathcal{L}}{\partial \mu_j} = g_j \left({ X }\right) \leq 0; \ \ \forall \ j = 1, 2, ..., p $
$\small \frac{\partial \mathcal{L}}{\partial x_l} = 0; \ \ \forall \ l = 1, 2, ..., n \\ \frac{\partial \mathcal{L}}{\partial \lambda_i} = h_i \left({ X }\right) = 0; \ \ \forall \ i = 1, 2, ..., m \\ \frac{\partial \mathcal{L}}{\partial \mu_j} = g_j \left({ X }\right) \leq 0; \ \ \forall \ j = 1, 2, ..., p $
Além das condições anteriores, também deve se cumprir que:
$\small \mu_j g_j \left({ X }\right) = 0; \ \ \forall \ j = 1, 2, ..., p \\ \mu_j \geq 0; \ \ \forall \ j = 1, 2, ..., p $
Usar o Método de Multiplicadores de Lagrange para determinar a mínima distância do centro do plano $\small xy$ ao círculo descrito por:
$\small {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} = 25$
e delimitado pela seguinte inequação:
$\small 2 x + y \geq 12$
A mínima distância é obtida minimizando o quadrado da distância, dado por:
$\small f\left( {x,y} \right) = {x^2} + {y^2} $
Sujeito às restrições de igualdade e desigualdade a seguir:
$\small {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} = 25$
$\small 2 x + y \geq 12$
Usando os Multiplicadores de Lagrange para minimizar a função $\small f\left( {x,y} \right)$, sujeito à restrição dada pela equação do círculo, a função Lagrangiana assume a seguinte forma:
$\small \mathcal{L} = {x^2} + {y^2} + \lambda \left[ {{{\left( {x - 8} \right)}^2} + {{\left( {y - 6} \right)}^2} - 25} \right] + \mu \left[ {2 x + y - 12} \right]$
$\small \mathcal{L} = {x^2} + {y^2} + \lambda \left[ {{{\left( {x - 8} \right)}^2} + {{\left( {y - 6} \right)}^2} - 25} \right] + \mu \left[ {2 x + y - 12} \right]$
As condições necessárias para pontos extremos são:
$\small \frac{\partial \mathcal{L}}{\partial x} = 2{x} + \lambda \left( {2 x -16} \right) + 2 \mu = 0 \\ \small \frac{\partial \mathcal{L}}{\partial y} = 2{y} + \lambda \left( {2 y -12} \right) + \mu = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} - 25 = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu} = 2 x + y - 12 = 0 $
A solução do anterior sistema de quatro equações fornece os pontos extremos do problema. Tais pontos extremos são:
$\small \left[ {\begin{array}{*{20}{c}} {{x^{(1)}}}\\ {{y^{(1)}}}\\ {{\lambda ^{(1)}}}\\ {{\mu ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 5\\ 2\\ -0,2\\ -5,6 \end{array}} \right] \hspace{0.5cm} {\rm{e}} \hspace{0.5cm} \left[ {\begin{array}{*{20}{c}} {{x^{(2)}}}\\ {{y^{(2)}}}\\ {{\lambda ^{(2)}}}\\ {{\mu ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {3}\\ 6\\ { - 1,8}\\ -12 \end{array}} \right]$
$\small \left[ {\begin{array}{*{20}{c}} {{x^{(1)}}}\\ {{y^{(1)}}}\\ {{\lambda ^{(1)}}}\\ {{\mu ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 5\\ 2\\ -0,2\\ -5,6 \end{array}} \right] \hspace{0.5cm} {\rm{e}} \hspace{0.5cm} \left[ {\begin{array}{*{20}{c}} {{x^{(2)}}}\\ {{y^{(2)}}}\\ {{\lambda ^{(2)}}}\\ {{\mu ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {3}\\ 6\\ { - 1,8}\\ -12 \end{array}} \right]$
Uma forma de verificar qual dos dois pontos extremos corresponde à distância mínima é simplesmente através do seu cálculo direto. Assim, pode ser conferido que o ponto a $\small \left({ 5, 2 }\right) $ corresponde à distância mínima com valor de 5,385.
$\small \frac{\partial \mathcal{L}}{\partial x} = 2{x} + \lambda \left( {2 x -16} \right) + 2 \mu = 0 \\ \small \frac{\partial \mathcal{L}}{\partial y} = 2{y} + \lambda \left( {2 y -12} \right) + \mu = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} - 25 = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu} = 2 x + y - 12 = 0 $
Em muitos casos, não é possível determinar com facilidade o ponto extremo que corresponde ao mínimo da função objetivo. Outra alternativa é, por exemplo, construir e resolver uma nova função cirada usando as equações da primeira derivada do problema original. Assim, do sistema de equações anterior, tem-se que:
$\small f\left( \lambda \right) = \lambda ^2 + 2 \lambda + 0,36 = 0$
A função $\small f\left( \lambda \right)$ pode ser resolvida por qualquer método para funções contínuas (Método de Newton-Raphson, por exemplo).
A saída de potência de cada gerador não deve exceder sua capacidade nominal nem ser menor que a necessária para alimentar seus equipamentos básicos para sua correta operação.
Assim, cada gerador é restrito a operar entre seus limites mínimo e máximo.
Quando as distâncias de transmissão são muito pequenas e a densidade de carga é muito alta, as perdas da transmissão podem ser desconsideradas e o despacho ótimo da geração é alcançado com todas as unidades geradoras operando com um custo de produção incremental igual.
Porém, em uma grande rede interconectada, onde a potência é transmitida através de longas distâncias, com áreas de baixa densidade de carga, as perdas da transmissão são um fator a ser considerado que impacta o despacho ótimo da geração.
Uma prática comum para incluir o efeito das perdas da transmissão é expressar as perdas de transmissão totais como uma função quadrática da saída dos geradores. A forma quadrática mais simples é:
$\small P_L = \sum\limits_{i = 1}^{ng} \sum\limits_{j = 1}^{ng} P_i B_{ij} P_j$
$\small P_L = \sum\limits_{i = 1}^{ng} \sum\limits_{j = 1}^{ng} P_i B_{ij} P_j$
Uma expressão mais geral contendo um termo linear e uma constante, conhecida como equação de perdas de Kron, é:
$\small P_L = \sum\limits_{i = 1}^{ng} \sum\limits_{j = 1}^{ng} P_i B_{ij} P_j + \sum\limits_{i = 1}^{ng} B_{0i} P_i + B_{00}$
Os coeficientes $\small B_{ij}$ são chamados de coeficientes de perdas ou coeficientes $\small B$.
O problema consiste então em determinar a geração de potência ativa para cada unidade de tal forma que a função objetivo (custo total de geração, $\small C_T$) seja mínima, sujeito ao conjunto de restrições, mostrado a seguir:
$\small \sum\limits_{i = 1}^{ng} P_i = P_D + P_L$
$\small P_i^{Min} \leq P_i \leq P_i^{Max}; \ \ \forall i = 1, 2, ..., ng$
Assim, este problema é formulado como:
$\small {\rm Min} \ C_T = \sum\limits_{i = 1}^{ng} C_i = \sum\limits_{i = 1}^{ng} \left({ \gamma P_i^2 + \beta P_i + \alpha }\right) \\ \small {\rm {Sujeito}} \ {\rm{a:}} \\ \small \ \ \ \ \ \ \ \ \sum\limits_{i = 1}^{ng} P_i = P_D + P_L\\ \small \ \ \ \ \ \ \ \ P_i^{Min} \leq P_i \leq P_i^{Max}; \ \ \forall i = 1, 2, ..., ng$
$\small {\rm Min} \ C_T = \sum\limits_{i = 1}^{ng} C_i = \sum\limits_{i = 1}^{ng} \left({ \gamma P_i^2 + \beta P_i + \alpha }\right) \\ \small {\rm {Sujeito}} \ {\rm{a:}} \\ \small \ \ \ \ \ \ \ \ \sum\limits_{i = 1}^{ng} P_i = P_D + P_L\\ \small \ \ \ \ \ \ \ \ P_i^{Min} \leq P_i \leq P_i^{Max}; \ \ \forall i = 1, 2, ..., ng$
Usando os Multiplicadores de Lagrange, adicionando os elementos necessários para incluir as restrições de desigualdade, obtém-se:
$\scriptsize \mathcal{L} = C_T + \lambda \left({ P_D + P_L - \sum\limits_{i = 1}^{ng} P_i }\right) + \sum\limits_{i = 1}^{ng} \mu_i^{Max} \left({ P_i - P_i^{Max}}\right) + \sum\limits_{i = 1}^{ng} \mu_i^{Min} \left({ P_i - P_i^{Min}}\right)$
$\scriptsize \mathcal{L} = C_T + \lambda \left({ P_D + P_L - \sum\limits_{i = 1}^{ng} P_i }\right) + \sum\limits_{i = 1}^{ng} \mu_i^{Max} \left({ P_i - P_i^{Max}}\right) + \sum\limits_{i = 1}^{ng} \mu_i^{Min} \left({ P_i - P_i^{Min}}\right)$
O mínimo desta função irrestrita pode ser definido como o ponto em que as derivadas parciais da função, em relação a cada variável, são zero:
$\small \frac{\partial \mathcal{L}}{\partial P_i} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Max}} = P_i -P_i^{Max} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Min}} = P_i -P_i^{Min} = 0; \ \ \forall i = 1, 2, ..., ng$
$\small \frac{\partial \mathcal{L}}{\partial P_i} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Max}} = P_i -P_i^{Max} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Min}} = P_i -P_i^{Min} = 0; \ \ \forall i = 1, 2, ..., ng$
A terceira e quarta condições, dadas por $\small {\partial \mathcal{L}}/{\partial \mu_i^{Max}} = 0$ e $\small {\partial \mathcal{L}}/{\partial \mu_i^{Min}} = 0$ ($\small \forall i = 1, 2, ..., ng$), respectivamente, indicam que não é permitido que $\small P_i$ ultrapasse seus limites.
$\small \frac{\partial \mathcal{L}}{\partial P_i} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Max}} = P_i -P_i^{Max} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Min}} = P_i -P_i^{Min} = 0; \ \ \forall i = 1, 2, ..., ng$
A segunda condição, dada por $\small {\partial \mathcal{L}}/{\partial \lambda} = 0$, resulta em:
$\small \sum\limits_{i = 1}^{ng} P_i = P_D + P_L$
A anterior equação é precisamente a restrição de igualdade.
$\small \frac{\partial \mathcal{L}}{\partial P_i} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Max}} = P_i -P_i^{Max} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Min}} = P_i -P_i^{Min} = 0; \ \ \forall i = 1, 2, ..., ng$
A primeira condição, dada por $\small {\partial \mathcal{L}}/{\partial P_i} = 0$ ($\small \forall i = 1, 2, ..., ng$), resulta em:
$\small \frac{\partial C_T}{\partial P_i} + \lambda \left({ 0 + \frac{\partial P_L}{\partial P_i} - 1 }\right) = 0; \ \ \forall i = 1, 2, ..., ng$
$\small \frac{\partial C_T}{\partial P_i} + \lambda \left({ 0 + \frac{\partial P_L}{\partial P_i} - 1 }\right) = 0; \ \ \forall i = 1, 2, ..., ng$
Como:
$\small C_T = C_1 + C_2 + \cdots + C_{ng}$
então:
$\small \frac{d C_i}{d P_i} + \lambda \frac{\partial P_L}{\partial P_i} = \lambda; \ \ \forall i = 1, 2, ..., ng$
O termo $\small {\partial P_L}/{\partial P_i}$ é conhecido como perda de transmissão incremental.
$\small \frac{d C_i}{d P_i} + \lambda \frac{\partial P_L}{\partial P_i} = \lambda; \ \ \forall i = 1, 2, ..., ng$
Classicamente, a anterior equação é rearranjada como:
$\small L_i \frac{d C_i}{\partial P_i} = \lambda; \ \ \forall i = 1, 2, ..., ng$
sendo que $\small L_i$, conhecido como fator de penalidade, é dado por:
$\small L_i = \frac{ 1 }{ 1 - \frac{\partial P_L}{\partial P_i} } ; \ \ \forall i = 1, 2, ..., ng$
Assim, o efeito das perdas da transmissão está na introdução de um fator de penalidade ($\small L_i$) com um valor que depende da localização da unidade geradora $\small i$.
Seja o sistema exemplo da figura a seguir:
Do circuito da figura, tem-se que:
$\small P_L = r_1 \times I_1 \times I_1^* + r_2 \times I_2 \times I_2^* + r_3 \times I_3 \times I_3^*$
$\small I_3 = I_1 + I_2 $
$\small I_3^* = I_1^* + I_2^*$
$\small P_L = r_1 \times I_1 \times I_1^* + r_2 \times I_2 \times I_2^* + r_3 \times I_3 \times I_3^*$
$\small I_3 = I_1 + I_2 $
$\small I_3^* = I_1^* + I_2^*$
Substituindo-se $\small I_3$ e $\small I_3^*$ na equação de $\small P_L$ vem:
$\small P_L = r_1 \times I_1 \times I_1^* + r_2 \times I_2 \times I_2^* + r_3 \times ( I_1 + I_2 ) \times ( I_1^* + I_2^* ) $
$\small P_L = ( r_1 + r_3 ) \times I_1^2 + ( r_2 + r_3 ) \times I_2^2 + r_3 \times ( I_1 \times I_2^* + I_2 \times I_1^* ) $
$\small P_L = ( r_1 + r_3 ) \times I_1^2 + ( r_2 + r_3 ) \times I_2^2 + r_3 \times ( I_1 \times I_2^* + I_2 \times I_1^* ) $
Na expressão anterior:
$\small I_1 \times I_2^* + I_2 \times I_1^* = 2 \times I_1 \times I_2 \times {\rm{cos}} (\alpha_{12}) $
sendo $\small {\rm{cos}} (\alpha_{12})$ a diferença angular entre $\small I_1$ e $\small I_2$.
Assim:
$\small P_L = ( r_1 + r_3 ) \times I_1^2 + ( r_2 + r_3 ) \times I_2^2 + r_3 \times ( 2 \times I_1 \times I_2 \times {\rm{cos}} (\alpha_{12}) ) $
$\small P_L = ( r_1 + r_3 ) \times I_1^2 + ( r_2 + r_3 ) \times I_2^2 + r_3 \times ( 2 \times I_1 \times I_2 \times {\rm{cos}} (\alpha_{12}) ) $
Sabendo-se que:
$\small P = V \times I \times {\rm{cos}} (\theta)$
tem-se que:
$\small I = \frac{P}{V \times {\rm{cos}} (\theta)}$
Substituindo-se na expressão de perdas:
$\scriptsize P_L = \frac{ ( r_1 + r_3 ) \times P_1^2}{V_1^2 \times {\rm{cos}}^2 (\theta_1)} + \frac{ ( r_2 + r_3 ) \times P_2^2}{V_2^2 \times {\rm{cos}}^2 (\theta_2)} + 2 \times r_3 \times {\rm{cos}} (\alpha_{12}) \times \frac{ P_1}{V_1 \times {\rm{cos}} (\theta_1)} \times \frac{ P_2}{V_2 \times {\rm{cos}} (\theta_2)} $
$\scriptsize P_L = \frac{ ( r_1 + r_3 ) \times P_1^2}{V_1^2 \times {\rm{cos}}^2 (\theta_1)} + \frac{ ( r_2 + r_3 ) \times P_2^2}{V_2^2 \times {\rm{cos}}^2 (\theta_2)} + 2 \times r_3 \times {\rm{cos}} (\alpha_{12}) \times \frac{ P_1}{V_1 \times {\rm{cos}} (\theta_1)} \times \frac{ P_2}{V_2 \times {\rm{cos}} (\theta_2)} $
ou:
$\small P_L = B_{11} \times P_1^2 + B_{22} \times P_2^2 + 2 \times B_{12} \times P_1 \times P_2 $
sendo $\small B_{11}$, $\small B_{22}$ e $\small B_{12}$ conhecidos como coeficientes de perdas ou coeficientes $\small B$.
Departamento de Engenharia Elétrica