Logo Logo

Análise de Sistemas de Energia Elétrica

Universidade Federal do Espírito Santo

Departamento de Engenharia Elétrica

Prof. Augusto César Rueda Medina / CT-XI, Sala 27 / augusto.rueda@ufes.br

Unidade 3

Fluxo de Potência

Equação de Perdas e sua Função no Despacho Econômico

Introdução

Um dos tipos de barras, definidos anteriormente, é o $\small PV$ (barras de tensão controlada), nos quais a potência ativa e a magnitude da tensão são especificadas. Para este tipo de barras, a solução do fluxo de potência fornece o ângulo da tensão e a potência reativa.

Em um sistema de potência da vida real, os geradores não estão alocados à mesma distância dos centros de consumo (cargas) e seus custos de operação são diferentes.

Além disso, deve se considerar que, em condições normais de operação, a capacidade de geração do sistema é maior do que sua demanda total. Assim, existem muitas opções para programar a geração de energia do sistema.

Introdução

No problema de despacho ótimo da geração em um sistema interconectado, o objetivo é determinar a programação de geração de potência ativa e reativa para cada usina geradora, de tal forma que os custos totais de geração sejam minimizados. Este problema também é chamado de fluxo de potência ótimo.

O fluxo de potência ótimo permite a minimização de funções objetivo selecionadas enquanto é mantido um desempenho do sistema aceitável em termos de limites de capabilidade de geração.

As funções objetivo podem ser, por exemplo, custos de geração, segurança do sistema e perdas técnicas do sistema.

Otimização de Funções Não-lineares - Formulação Geral

A otimização de funções não-lineares é uma importante ferramenta em análise de sistema de energia elétrica e é parte de um tipo de otimização chamado Programação Não-linear (PNL), o qual é amplamente discutido em muitas referências bibliográficas.

O objetivo básico é a minimização/maximização de algum objetivo não-linear sujeito a um conjunto de restrições não-lineares que podem ser de igualdade ou desigualdade. As partes principais de um modelo de PNL são:

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $



Otimização de Funções Não-lineares - Formulação Geral

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $

sendo:

  • $\small X$: Variáveis de decisão. Grandezas sobre as quais se exerce controle visando atingir o objetivo especificado. Exemplo: Potência ativa e magnitude da tensão nas barras tipo $\small PV$.

Otimização de Funções Não-lineares - Formulação Geral

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $

sendo:

  • $\small f \left({ X }\right)$: Função objetivo. Direciona a escolha dos valores das variáveis de decisão no sentido de otimizar determinada grandeza. Exemplo: Minimizar os custos de geração de energia.

Otimização de Funções Não-lineares - Formulação Geral

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $

sendo:

  • $\small h_i \left({ X }\right) = 0$ e $\small g_j \left({ X }\right) \leq 0$: Restrições. Restringem os valores que as variáveis de decisão podem assumir. Exemplos: Balanço de potência ativa e reativa, capacidade de geração das usinas.

Otimização de Funções Não-lineares - Formulação Geral

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $

sendo:

  • Parâmetros. Valores constantes que caracterizam um modelo de otimização particular. Exemplos: Limites de geração de potência reativa, limites de fluxo de potência das linhas de transmissão.

Otimização de Funções Não-lineares - Otimização Irrestrita

O problema de otimização não-linear irrestrita tem a seguinte forma:

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize X \in \Omega$

As ferramentas de otimização usadas para resolver problemas de otimização irrestritos têm origem dirata no cálculo multivariável.

A condição necessária para minimizar a função objetivo $\small f \left({ X }\right)$ é obtida calculando a derivada da função $\small f$ em relação a suas variáveis igualadas a zero, isto é:

$\small \frac{\partial f}{ \partial x_l} = 0; \ \ \forall l = 1, 2, \dots, n$; ou $\small \nabla f = 0$

Otimização de Funções Não-lineares - Otimização Irrestrita

$\small \nabla f = 0$

Sendo:

$\small \nabla f = \left({ \frac{\partial f}{ \partial x_1}, \frac{\partial f}{ \partial x_2}, \cdots, \frac{\partial f}{ \partial x_n} }\right) $

O elemento $\small \nabla f$ é conhecido como vetor Gradiente. Os termos associados com a segunda derivada de $\small f \left({ X }\right)$ dados por:

$\small H = \frac{\partial^2 f}{ \partial X^2} = 0$

A anterior expressão resulta em uma matriz simétrica chamada de matriz Hessiana.

Otimização de Funções Não-lineares - Otimização Irrestrita

Uma vez que a derivada da função é calculada em um ponto extremo ($\small {\widehat x_1}$, $\small {\widehat x_2}$, ..., $\small {\widehat x_n}$), para que $\small f$ tenha um mínimo relativo, a matriz Hessiana, avaliada no ponto ($\small {\widehat x_1}$, $\small {\widehat x_2}$, ..., $\small {\widehat x_n}$), deve ser definida positiva. Esta condição exige que todos os autovalores da matriz Hessiana, avaliados no mencionado ponto extremo, sejam positivos.

Otimização de Funções Não-lineares - Otimização Irrestrita (Autovalores e Autovetores)

Dada uma matriz $\small A$ de dimensão $\small n \times n$, qualquer vector $\small X$ de valores diferentes de zero satisfaz a equação:

$\small AX = \lambda X $

Sendo $\small \lambda$ um factor de escala, chamado de autovetor e os elementos escalares de $\small \lambda$ chamados de autovalores.

Se $\small X \neq 0$, então $\small \lambda$ fornece as raízes da equação característica:

$\small \left| {A - \lambda I} \right| = 0$

Otimização de Funções Não-lineares - Otimização Irrestrita (Autovalores e Autovetores) - Exemplo 3.6.1

Calcular os autovalores e os autovectores da matriz:

$\small A = \left[ {\begin{array}{*{20}{c}} 2&1\\ 1&2 \end{array}} \right]$


Down arrow

Os autovalores do problema são definidos como:

$\small \left[ {\begin{array}{*{20}{c}} 2&1\\ 1&2 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}} \end{array}} \right] = \lambda \left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}} \end{array}} \right] $

A característica polinomial é dada por:

$\small \left| {A - \lambda I} \right| = 0 $

Ou:

$\small \left| {\begin{array}{*{20}{c}} {2 - \lambda }&1\\ 1&{2 - \lambda } \end{array}} \right| = 0 \\ {\lambda ^2} - 4\lambda + 3 = 0 $

$\small \left| {\begin{array}{*{20}{c}} {2 - \lambda }&1\\ 1&{2 - \lambda } \end{array}} \right| = 0 \\ {\lambda ^2} - 4\lambda + 3 = 0 $

As raízes do polinómio $\small {\lambda ^2} - 4\lambda + 3 = 0$ são: $\small \lambda_1 = 3$ e $\small \lambda_2 = 1$. Então, os autovalores de $\small A$ são 3 e 1.

Os autovetores para $\small \lambda_1 = 3$ são:

$\small \left[ {\begin{array}{*{20}{c}} {2 - 3}&1\\ 1&{2 - 3} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 0\\ 0 \end{array}} \right]$

Portanto, assumindo um valor de $\small {x_1^{(1)}} = \frac{1}{{\sqrt 2 }}$:

$\small \left[ {\begin{array}{*{20}{c}} {x_1^{(1)}}\\ {x_2^{(1)}} \end{array}} \right] = \frac{1}{{\sqrt 2 }}\left[ {\begin{array}{*{20}{c}} 1\\ 1 \end{array}} \right]$

Os autovetoress para $\small \lambda_2 = 1$ são:

$\small \left[ {\begin{array}{*{20}{c}} {2 - 1}&1\\ 1&{2 - 1} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 0\\ 0 \end{array}} \right]$

Portanto, assumindo um valor de $\small {x_1^{(2)}} = \frac{1}{{\sqrt 2 }}$:

$\small \left[ {\begin{array}{*{20}{c}} {x_1^{(2)}}\\ {x_2^{(2)}} \end{array}} \right] = \frac{1}{{\sqrt 2 }}\left[ {\begin{array}{*{20}{c}} 1\\ -1 \end{array}} \right]$



Up arrow

Otimização de Funções Não-lineares - Otimização Irrestrita

Em resumo, o mínimo de uma função irrestrita é determinado calculando suas derivadas parciais igualadas a zero para um ponto extremo de avaliação específico ou de interesse.

Entre os pontos extremos, aqueles nos quais a matriz Hessiana da função seja definida positiva correspondem a mínimos locais.

Se há somente um mínimo local, então este mínimo também é global: caso contrário, a função deve ser avaliada em cada um dos mínimos locais para determinar o mínimo global.

Otimização de Funções Não-lineares - Otimização Irrestrita - Exemplo 3.6.2

Determinar o mínimo de:

$\scriptsize f\left( {{x_1},{x_2},{x_3}} \right) = x_1^2 + 2x_2^2 + 3x_3^2 + {x_1}{x_2} + {x_2}{x_3} - 8{x_1} - 16{x_2} - 32{x_3} + 110$


Down arrow

$\scriptsize f\left( {{x_1},{x_2},{x_3}} \right) = x_1^2 + 2x_2^2 + 3x_3^2 + {x_1}{x_2} + {x_2}{x_3} - 8{x_1} - 16{x_2} - 32{x_3} + 110$

Igualando a primeira derivada da função a zero, resulta em:

$\small \begin{array}{l} \frac{{\partial f}}{{\partial {x_1}}} = 2{x_1} + {x_2} - 8 = 0\\ \frac{{\partial f}}{{\partial {x_2}}} = {x_1} + 4{x_2} + {x_3} - 16 = 0\\ \frac{{\partial f}}{{\partial {x_3}}} = {x_2} + 6{x_3} - 32 = 0 \end{array} $

Ou:

$\small \left[ {\begin{array}{*{20}{c}} 2&1&0\\ 1&4&1\\ 0&1&6 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ {{x_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 8\\ {16}\\ {32} \end{array}} \right] $

$\small \left[ {\begin{array}{*{20}{c}} 2&1&0\\ 1&4&1\\ 0&1&6 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{x_1}}\\ {{x_2}}\\ {{x_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 8\\ {16}\\ {32} \end{array}} \right] $

A solução do anterior sistema linear de equações é dada por:

$\small \left[ {\begin{array}{*{20}{c}} {{{\widehat x}_1}}\\ {{{\widehat x}_2}}\\ {{{\widehat x}_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 3\\ 2\\ 5 \end{array}} \right]$

A função, avaliada no anterior ponto extremo, é:

$\small f\left( {3,2,5} \right) = 2 $

$\small \left[ {\begin{array}{*{20}{c}} {{{\widehat x}_1}}\\ {{{\widehat x}_2}}\\ {{{\widehat x}_3}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 3\\ 2\\ 5 \end{array}} \right]$

Para verificar se o ponto extremo determinado corresponde a um mínimo, avalia-se a segunda derivada da função para formar a matriz Hessiana:

$\small H\left( {\widehat X} \right) = \left[ {\begin{array}{*{20}{c}} 2&1&0\\ 1&4&1\\ 0&1&6 \end{array}} \right]$

Os autovalores da anterior matriz Hessiana são 1,55, 4,0 e 6,45, os quais são todos positivos. Assim, a matriz Hessiana é definida positiva e o ponto $\small \left( {3,2,5} \right) $ corresponde a um ponto mínimo.


Up arrow

Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade

O problema de otimização restrita com restrições de igualdade tem a seguinte forma:

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize X \in \Omega $

Este problema pode ser resolvido usando vários métodos. Um desses métodos é o de Multiplicadores de Lagrange.

Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize X \in \Omega $

Através do Método de Multiplicadores de Lagrange, o problema restrito original é transformado em um problema irrestrito no qual as restrições são introduzidas na própria função objetivo. Este procedimento fornece uma função objetivo aumentada com $\small m$ novas variáveis $\small \lambda$, correspondentes às restrições de igualdade do problema original.

Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize X \in \Omega $

Assim, a função objetivo aumentada, isto é, com as $\small m$ novas variáveis $\small \lambda$, assume a seguinte forma:

$\small \mathcal{L} = f \left({ X }\right) + \sum\limits_{i = 1}^m {{\lambda _i}} h_i \left({ X }\right) $

Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade

$\small \mathcal{L} = f \left({ X }\right) + \sum\limits_{i = 1}^m {{\lambda _i}} h_i \left({ X }\right) $

As condições necessárias de mínimo local de $\small \mathcal{L}$ são as seguintes:

$\small \frac{\partial \mathcal{L}}{\partial x_i} = \frac{\partial f \left({ X }\right)}{\partial x_i} + \sum\limits_{i = 1}^m {{\lambda _i}} \frac{\partial h_i \left({ X }\right)}{\partial x_i} = 0; \ \ \forall \ i = 1, 2, ..., n \\ \frac{\partial \mathcal{L}}{\partial \lambda_i} = h_i \left({ X }\right) = 0; \ \ \forall \ i = 1, 2, ..., m $

Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade - Exemplo 3.6.3

Usar o Método de Multiplicadores de Lagrange para determinar a mínima distância do centro do plano $\small xy$ ao círculo descrito por:

$\small {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} = 25$


Down arrow

A mínima distância é obtida minimizando o quadrado da distância, dado por:

$\small f\left( {x,y} \right) = {x^2} + {y^2} $

Sujeito à restrição de igualdade dada pelo círculo em questão:

$\small {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} = 25$

Usando os Multiplicadores de Lagrange para minimizar a função $\small f\left( {x,y} \right)$, sujeito à restrição dada pela equação do círculo, a função Lagrangiana assume a seguinte forma:

$\small \mathcal{L} = {x^2} + {y^2} + \lambda \left[ {{{\left( {x - 8} \right)}^2} + {{\left( {y - 6} \right)}^2} - 25} \right]$

$\small \mathcal{L} = {x^2} + {y^2} + \lambda \left[ {{{\left( {x - 8} \right)}^2} + {{\left( {y - 6} \right)}^2} - 25} \right]$

As condições necessárias para pontos extremos são:

$\small \frac{\partial \mathcal{L}}{\partial x} = 2{x} + \lambda \left( {2 x -16} \right) \ \ {\rm{ou}} \ \ 2 x \left( {\lambda + 1} \right) = 16 \lambda \\ \small \frac{\partial \mathcal{L}}{\partial y} = 2{y} + \lambda \left( {2 y -12} \right) \ \ {\rm{ou}} \ \ 2 y \left( {\lambda + 1} \right) = 12 \lambda \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} - 25 = 0$

A solução do anterior sistema de três equações fornece os pontos extremos do problema. Tais pontos extremos são:

$\small \left[ {\begin{array}{*{20}{c}} {{x^{(1)}}}\\ {{y^{(1)}}}\\ {{\lambda ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 4\\ 3\\ 1 \end{array}} \right] \hspace{0.5cm} {\rm{e}} \hspace{0.5cm} \left[ {\begin{array}{*{20}{c}} {{x^{(2)}}}\\ {{y^{(2)}}}\\ {{\lambda ^{(2)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {12}\\ 9\\ { - 3} \end{array}} \right]$

$\small \left[ {\begin{array}{*{20}{c}} {{x^{(1)}}}\\ {{y^{(1)}}}\\ {{\lambda ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 4\\ 3\\ 1 \end{array}} \right] \hspace{0.5cm} {\rm{e}} \hspace{0.5cm} \left[ {\begin{array}{*{20}{c}} {{x^{(2)}}}\\ {{y^{(2)}}}\\ {{\lambda ^{(2)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {12}\\ 9\\ { - 3} \end{array}} \right]$

Uma forma de verificar qual dos dois pontos extremos corresponde à distância mínima é simplesmente através do seu cálculo direto. Assim, pode ser conferido que o ponto a $\small \left({ 4, 3 }\right) $ corresponde à distância mínima com valor de 5.

$\small \frac{\partial \mathcal{L}}{\partial x} = 2{x} + \lambda \left( {2 x -16} \right) \ \ {\rm{ou}} \ \ 2 x \left( {\lambda + 1} \right) = 16 \lambda \\ \small \frac{\partial \mathcal{L}}{\partial y} = 2{y} + \lambda \left( {2 y -12} \right) \ \ {\rm{ou}} \ \ 2 y \left( {\lambda + 1} \right) = 12 \lambda \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} - 25 = 0$

Em muitos casos, não é possível determinar com facilidade o ponto extremo que corresponde ao mínimo da função objetivo. Outra alternativa é, por exemplo, construir e resolver uma nova função cirada usando as equações da primeira derivada do problema original. Assim, do sistema de equações anterior, substituindo as duas primeiras equações na terceira equação, tem-se que:

$\small f\left( \lambda \right) = \frac{{100{\lambda ^2}}}{{{{\left( {\lambda + 1} \right)}^2}}} - \frac{{200\lambda }}{{\lambda + 1}} + 75 = 0$

A função $\small f\left( \lambda \right)$ pode ser resolvida por qualquer método para funções contínuas (Método de Newton-Raphson, por exemplo).


Up arrow

Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade e Desigualdade

Os problemas de otimização da vida real contêm restrições tanto de igualdade quanto de desigualdade. Os problemas de otimização deste tipo têm a seguinte forma:

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $

Os Multiplicadores de Lagrange são estendidos para incluir as restrições de desigualdade. Assim, são introduzidas $\small p$ variáveis $\mu$.



Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade e Desigualdade

$\scriptsize \textrm{Min}/\textrm{Max} \ f \left({ X }\right) \\ \scriptsize \textrm{Sujeito} \ \textrm{a:} \\ \scriptsize h_i \left({ X }\right) = 0; \ \ \forall i = 1, 2, \dots, m \\ \scriptsize g_j \left({ X }\right) \leq 0; \ \ \forall j = 1, 2, \dots, p \\ \scriptsize X \in \Omega $

A função objetivo irrestrita aumentada é:

$\small \mathcal{L} = f \left({ X }\right) + \sum\limits_{i = 1}^m {{\lambda _i}} h_i \left({ X }\right) + \sum\limits_{j = 1}^p {{\mu _j}} g_j \left({ X }\right) $

Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade e Desigualdade

$\small \mathcal{L} = f \left({ X }\right) + \sum\limits_{i = 1}^m {{\lambda _i}} h_i \left({ X }\right) + \sum\limits_{j = 1}^p {{\mu _j}} g_j \left({ X }\right) $

As condições necessárias para um mínimo local de $\small \mathcal{L}$ são:

$\small \frac{\partial \mathcal{L}}{\partial x_l} = 0; \ \ \forall \ l = 1, 2, ..., n \\ \frac{\partial \mathcal{L}}{\partial \lambda_i} = h_i \left({ X }\right) = 0; \ \ \forall \ i = 1, 2, ..., m \\ \frac{\partial \mathcal{L}}{\partial \mu_j} = g_j \left({ X }\right) \leq 0; \ \ \forall \ j = 1, 2, ..., p $


Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade e Desigualdade

$\small \frac{\partial \mathcal{L}}{\partial x_l} = 0; \ \ \forall \ l = 1, 2, ..., n \\ \frac{\partial \mathcal{L}}{\partial \lambda_i} = h_i \left({ X }\right) = 0; \ \ \forall \ i = 1, 2, ..., m \\ \frac{\partial \mathcal{L}}{\partial \mu_j} = g_j \left({ X }\right) \leq 0; \ \ \forall \ j = 1, 2, ..., p $

Além das condições anteriores, também deve se cumprir que:

$\small \mu_j g_j \left({ X }\right) = 0; \ \ \forall \ j = 1, 2, ..., p \\ \mu_j \geq 0; \ \ \forall \ j = 1, 2, ..., p $


Otimização de Funções Não-lineares - Otimização Restrita: Restrições de Igualdade - Exemplo 3.6.4

Usar o Método de Multiplicadores de Lagrange para determinar a mínima distância do centro do plano $\small xy$ ao círculo descrito por:

$\small {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} = 25$

e delimitado pela seguinte inequação:

$\small 2 x + y \geq 12$


Down arrow

A mínima distância é obtida minimizando o quadrado da distância, dado por:

$\small f\left( {x,y} \right) = {x^2} + {y^2} $

Sujeito às restrições de igualdade e desigualdade a seguir:

$\small {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} = 25$

$\small 2 x + y \geq 12$

Usando os Multiplicadores de Lagrange para minimizar a função $\small f\left( {x,y} \right)$, sujeito à restrição dada pela equação do círculo, a função Lagrangiana assume a seguinte forma:

$\small \mathcal{L} = {x^2} + {y^2} + \lambda \left[ {{{\left( {x - 8} \right)}^2} + {{\left( {y - 6} \right)}^2} - 25} \right] + \mu \left[ {2 x + y - 12} \right]$

$\small \mathcal{L} = {x^2} + {y^2} + \lambda \left[ {{{\left( {x - 8} \right)}^2} + {{\left( {y - 6} \right)}^2} - 25} \right] + \mu \left[ {2 x + y - 12} \right]$

As condições necessárias para pontos extremos são:

$\small \frac{\partial \mathcal{L}}{\partial x} = 2{x} + \lambda \left( {2 x -16} \right) + 2 \mu = 0 \\ \small \frac{\partial \mathcal{L}}{\partial y} = 2{y} + \lambda \left( {2 y -12} \right) + \mu = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} - 25 = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu} = 2 x + y - 12 = 0 $

A solução do anterior sistema de quatro equações fornece os pontos extremos do problema. Tais pontos extremos são:

$\small \left[ {\begin{array}{*{20}{c}} {{x^{(1)}}}\\ {{y^{(1)}}}\\ {{\lambda ^{(1)}}}\\ {{\mu ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 5\\ 2\\ -0,2\\ -5,6 \end{array}} \right] \hspace{0.5cm} {\rm{e}} \hspace{0.5cm} \left[ {\begin{array}{*{20}{c}} {{x^{(2)}}}\\ {{y^{(2)}}}\\ {{\lambda ^{(2)}}}\\ {{\mu ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {3}\\ 6\\ { - 1,8}\\ -12 \end{array}} \right]$

$\small \left[ {\begin{array}{*{20}{c}} {{x^{(1)}}}\\ {{y^{(1)}}}\\ {{\lambda ^{(1)}}}\\ {{\mu ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} 5\\ 2\\ -0,2\\ -5,6 \end{array}} \right] \hspace{0.5cm} {\rm{e}} \hspace{0.5cm} \left[ {\begin{array}{*{20}{c}} {{x^{(2)}}}\\ {{y^{(2)}}}\\ {{\lambda ^{(2)}}}\\ {{\mu ^{(1)}}} \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {3}\\ 6\\ { - 1,8}\\ -12 \end{array}} \right]$

Uma forma de verificar qual dos dois pontos extremos corresponde à distância mínima é simplesmente através do seu cálculo direto. Assim, pode ser conferido que o ponto a $\small \left({ 5, 2 }\right) $ corresponde à distância mínima com valor de 5,385.

$\small \frac{\partial \mathcal{L}}{\partial x} = 2{x} + \lambda \left( {2 x -16} \right) + 2 \mu = 0 \\ \small \frac{\partial \mathcal{L}}{\partial y} = 2{y} + \lambda \left( {2 y -12} \right) + \mu = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = {\left( {x - 8} \right)^2} + {\left( {y - 6} \right)^2} - 25 = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu} = 2 x + y - 12 = 0 $

Em muitos casos, não é possível determinar com facilidade o ponto extremo que corresponde ao mínimo da função objetivo. Outra alternativa é, por exemplo, construir e resolver uma nova função cirada usando as equações da primeira derivada do problema original. Assim, do sistema de equações anterior, tem-se que:

$\small f\left( \lambda \right) = \lambda ^2 + 2 \lambda + 0,36 = 0$

A função $\small f\left( \lambda \right)$ pode ser resolvida por qualquer método para funções contínuas (Método de Newton-Raphson, por exemplo).


Up arrow

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

A saída de potência de cada gerador não deve exceder sua capacidade nominal nem ser menor que a necessária para alimentar seus equipamentos básicos para sua correta operação.

Assim, cada gerador é restrito a operar entre seus limites mínimo e máximo.

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

Quando as distâncias de transmissão são muito pequenas e a densidade de carga é muito alta, as perdas da transmissão podem ser desconsideradas e o despacho ótimo da geração é alcançado com todas as unidades geradoras operando com um custo de produção incremental igual.

Porém, em uma grande rede interconectada, onde a potência é transmitida através de longas distâncias, com áreas de baixa densidade de carga, as perdas da transmissão são um fator a ser considerado que impacta o despacho ótimo da geração.

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

Uma prática comum para incluir o efeito das perdas da transmissão é expressar as perdas de transmissão totais como uma função quadrática da saída dos geradores. A forma quadrática mais simples é:

$\small P_L = \sum\limits_{i = 1}^{ng} \sum\limits_{j = 1}^{ng} P_i B_{ij} P_j$

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

$\small P_L = \sum\limits_{i = 1}^{ng} \sum\limits_{j = 1}^{ng} P_i B_{ij} P_j$

Uma expressão mais geral contendo um termo linear e uma constante, conhecida como equação de perdas de Kron, é:

$\small P_L = \sum\limits_{i = 1}^{ng} \sum\limits_{j = 1}^{ng} P_i B_{ij} P_j + \sum\limits_{i = 1}^{ng} B_{0i} P_i + B_{00}$

Os coeficientes $\small B_{ij}$ são chamados de coeficientes de perdas ou coeficientes $\small B$.

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

O problema consiste então em determinar a geração de potência ativa para cada unidade de tal forma que a função objetivo (custo total de geração, $\small C_T$) seja mínima, sujeito ao conjunto de restrições, mostrado a seguir:

$\small \sum\limits_{i = 1}^{ng} P_i = P_D + P_L$

$\small P_i^{Min} \leq P_i \leq P_i^{Max}; \ \ \forall i = 1, 2, ..., ng$


Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

Assim, este problema é formulado como:

$\small {\rm Min} \ C_T = \sum\limits_{i = 1}^{ng} C_i = \sum\limits_{i = 1}^{ng} \left({ \gamma P_i^2 + \beta P_i + \alpha }\right) \\ \small {\rm {Sujeito}} \ {\rm{a:}} \\ \small \ \ \ \ \ \ \ \ \sum\limits_{i = 1}^{ng} P_i = P_D + P_L\\ \small \ \ \ \ \ \ \ \ P_i^{Min} \leq P_i \leq P_i^{Max}; \ \ \forall i = 1, 2, ..., ng$

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

$\small {\rm Min} \ C_T = \sum\limits_{i = 1}^{ng} C_i = \sum\limits_{i = 1}^{ng} \left({ \gamma P_i^2 + \beta P_i + \alpha }\right) \\ \small {\rm {Sujeito}} \ {\rm{a:}} \\ \small \ \ \ \ \ \ \ \ \sum\limits_{i = 1}^{ng} P_i = P_D + P_L\\ \small \ \ \ \ \ \ \ \ P_i^{Min} \leq P_i \leq P_i^{Max}; \ \ \forall i = 1, 2, ..., ng$

Usando os Multiplicadores de Lagrange, adicionando os elementos necessários para incluir as restrições de desigualdade, obtém-se:

$\scriptsize \mathcal{L} = C_T + \lambda \left({ P_D + P_L - \sum\limits_{i = 1}^{ng} P_i }\right) + \sum\limits_{i = 1}^{ng} \mu_i^{Max} \left({ P_i - P_i^{Max}}\right) + \sum\limits_{i = 1}^{ng} \mu_i^{Min} \left({ P_i - P_i^{Min}}\right)$

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

$\scriptsize \mathcal{L} = C_T + \lambda \left({ P_D + P_L - \sum\limits_{i = 1}^{ng} P_i }\right) + \sum\limits_{i = 1}^{ng} \mu_i^{Max} \left({ P_i - P_i^{Max}}\right) + \sum\limits_{i = 1}^{ng} \mu_i^{Min} \left({ P_i - P_i^{Min}}\right)$

O mínimo desta função irrestrita pode ser definido como o ponto em que as derivadas parciais da função, em relação a cada variável, são zero:

$\small \frac{\partial \mathcal{L}}{\partial P_i} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Max}} = P_i -P_i^{Max} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Min}} = P_i -P_i^{Min} = 0; \ \ \forall i = 1, 2, ..., ng$

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

$\small \frac{\partial \mathcal{L}}{\partial P_i} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Max}} = P_i -P_i^{Max} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Min}} = P_i -P_i^{Min} = 0; \ \ \forall i = 1, 2, ..., ng$

A terceira e quarta condições, dadas por $\small {\partial \mathcal{L}}/{\partial \mu_i^{Max}} = 0$ e $\small {\partial \mathcal{L}}/{\partial \mu_i^{Min}} = 0$ ($\small \forall i = 1, 2, ..., ng$), respectivamente, indicam que não é permitido que $\small P_i$ ultrapasse seus limites.

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

$\small \frac{\partial \mathcal{L}}{\partial P_i} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Max}} = P_i -P_i^{Max} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Min}} = P_i -P_i^{Min} = 0; \ \ \forall i = 1, 2, ..., ng$

A segunda condição, dada por $\small {\partial \mathcal{L}}/{\partial \lambda} = 0$, resulta em:

$\small \sum\limits_{i = 1}^{ng} P_i = P_D + P_L$

A anterior equação é precisamente a restrição de igualdade.



Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

$\small \frac{\partial \mathcal{L}}{\partial P_i} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \lambda} = 0 \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Max}} = P_i -P_i^{Max} = 0; \ \ \forall i = 1, 2, ..., ng \\ \small \frac{\partial \mathcal{L}}{\partial \mu_i^{Min}} = P_i -P_i^{Min} = 0; \ \ \forall i = 1, 2, ..., ng$

A primeira condição, dada por $\small {\partial \mathcal{L}}/{\partial P_i} = 0$ ($\small \forall i = 1, 2, ..., ng$), resulta em:

$\small \frac{\partial C_T}{\partial P_i} + \lambda \left({ 0 + \frac{\partial P_L}{\partial P_i} - 1 }\right) = 0; \ \ \forall i = 1, 2, ..., ng$

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

$\small \frac{\partial C_T}{\partial P_i} + \lambda \left({ 0 + \frac{\partial P_L}{\partial P_i} - 1 }\right) = 0; \ \ \forall i = 1, 2, ..., ng$

Como:

$\small C_T = C_1 + C_2 + \cdots + C_{ng}$

então:

$\small \frac{d C_i}{d P_i} + \lambda \frac{\partial P_L}{\partial P_i} = \lambda; \ \ \forall i = 1, 2, ..., ng$

O termo $\small {\partial P_L}/{\partial P_i}$ é conhecido como perda de transmissão incremental.

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração

$\small \frac{d C_i}{d P_i} + \lambda \frac{\partial P_L}{\partial P_i} = \lambda; \ \ \forall i = 1, 2, ..., ng$

Classicamente, a anterior equação é rearranjada como:

$\small L_i \frac{d C_i}{\partial P_i} = \lambda; \ \ \forall i = 1, 2, ..., ng$

sendo que $\small L_i$, conhecido como fator de penalidade, é dado por:

$\small L_i = \frac{ 1 }{ 1 - \frac{\partial P_L}{\partial P_i} } ; \ \ \forall i = 1, 2, ..., ng$

Assim, o efeito das perdas da transmissão está na introdução de um fator de penalidade ($\small L_i$) com um valor que depende da localização da unidade geradora $\small i$.

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração - Equação de Perdas

Seja o sistema exemplo da figura a seguir:

Do circuito da figura, tem-se que:

$\small P_L = r_1 \times I_1 \times I_1^* + r_2 \times I_2 \times I_2^* + r_3 \times I_3 \times I_3^*$

$\small I_3 = I_1 + I_2 $

$\small I_3^* = I_1^* + I_2^*$

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração - Equação de Perdas

$\small P_L = r_1 \times I_1 \times I_1^* + r_2 \times I_2 \times I_2^* + r_3 \times I_3 \times I_3^*$

$\small I_3 = I_1 + I_2 $

$\small I_3^* = I_1^* + I_2^*$

Substituindo-se $\small I_3$ e $\small I_3^*$ na equação de $\small P_L$ vem:

$\small P_L = r_1 \times I_1 \times I_1^* + r_2 \times I_2 \times I_2^* + r_3 \times ( I_1 + I_2 ) \times ( I_1^* + I_2^* ) $

$\small P_L = ( r_1 + r_3 ) \times I_1^2 + ( r_2 + r_3 ) \times I_2^2 + r_3 \times ( I_1 \times I_2^* + I_2 \times I_1^* ) $

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração - Equação de Perdas

$\small P_L = ( r_1 + r_3 ) \times I_1^2 + ( r_2 + r_3 ) \times I_2^2 + r_3 \times ( I_1 \times I_2^* + I_2 \times I_1^* ) $

Na expressão anterior:

$\small I_1 \times I_2^* + I_2 \times I_1^* = 2 \times I_1 \times I_2 \times {\rm{cos}} (\alpha_{12}) $

sendo $\small {\rm{cos}} (\alpha_{12})$ a diferença angular entre $\small I_1$ e $\small I_2$.

Assim:

$\small P_L = ( r_1 + r_3 ) \times I_1^2 + ( r_2 + r_3 ) \times I_2^2 + r_3 \times ( 2 \times I_1 \times I_2 \times {\rm{cos}} (\alpha_{12}) ) $

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração - Equação de Perdas

$\small P_L = ( r_1 + r_3 ) \times I_1^2 + ( r_2 + r_3 ) \times I_2^2 + r_3 \times ( 2 \times I_1 \times I_2 \times {\rm{cos}} (\alpha_{12}) ) $

Sabendo-se que:

$\small P = V \times I \times {\rm{cos}} (\theta)$

tem-se que:

$\small I = \frac{P}{V \times {\rm{cos}} (\theta)}$

Substituindo-se na expressão de perdas:

$\scriptsize P_L = \frac{ ( r_1 + r_3 ) \times P_1^2}{V_1^2 \times {\rm{cos}}^2 (\theta_1)} + \frac{ ( r_2 + r_3 ) \times P_2^2}{V_2^2 \times {\rm{cos}}^2 (\theta_2)} + 2 \times r_3 \times {\rm{cos}} (\alpha_{12}) \times \frac{ P_1}{V_1 \times {\rm{cos}} (\theta_1)} \times \frac{ P_2}{V_2 \times {\rm{cos}} (\theta_2)} $

Despacho Econômico Considerando Perdas e Incluindo Limites de Geração - Equação de Perdas

$\scriptsize P_L = \frac{ ( r_1 + r_3 ) \times P_1^2}{V_1^2 \times {\rm{cos}}^2 (\theta_1)} + \frac{ ( r_2 + r_3 ) \times P_2^2}{V_2^2 \times {\rm{cos}}^2 (\theta_2)} + 2 \times r_3 \times {\rm{cos}} (\alpha_{12}) \times \frac{ P_1}{V_1 \times {\rm{cos}} (\theta_1)} \times \frac{ P_2}{V_2 \times {\rm{cos}} (\theta_2)} $

ou:

$\small P_L = B_{11} \times P_1^2 + B_{22} \times P_2^2 + 2 \times B_{12} \times P_1 \times P_2 $

sendo $\small B_{11}$, $\small B_{22}$ e $\small B_{12}$ conhecidos como coeficientes de perdas ou coeficientes $\small B$.

Análise de Sistemas de Energia Elétrica

Universidade Federal do Espírito Santo

Departamento de Engenharia Elétrica

Prof. Augusto César Rueda Medina / CT-XI, Sala 27 / augusto.rueda@ufes.br