9. Úvod do optimalizačních metod. Optimalizace geometrie molekuly. Definice optimalizace Již v minulosti řada matematiků a přírodovědců dospěla k přesvědčení, že přírodní děje lze popsat jako optimalizační procesy. Euler: „Na světě se nestane nic, v čem by nebylo vidět smysl nějakého maxima nebo minima“. Leibnitz: „Náš svět je nejlepší ze všech možných světů, a proto lze jeho zákony vyjádřit extremálními principy“. Definice optimalizace II Optimalizaci lze definovat například následovně: Obor zabývající se určením nejlepšího řešení jistého matematicky definovaného problému. Definice optimalizace III Postup při optimalizaci: • Nastudování optimalizačních kritérií problému • Nalezení metody řešení problému • Matematický popis řešení (pomocí funkce) • Nalezení minima funkce Tímto tématem se budeme zabývat Definice optimalizace IV Předmět PV027 se zabývá matematickou optimalizací, tedy minimalizací reálných funkcí, tj. úlohami typu: kde: min ( ) x M f x  f R R M R n n : →  Definice optimalizace V Poznámka: Není nutné zabývat se samostatně také maximalizací, neboť ji lze převést na minimalizaci pomocí vztahu: ( )max ( ) min ( ) x M x M f x f x   = − − Typy optimalizací Lokální X globální: Lokální optimalizace: • Nalezení jediného minima, nacházejícího se v určitém intervalu f(x) x Typy optimalizací II Lokální optimalizace – další možný přístup: • Nalezení nejbližšího minima do kterého lze sestoupit ze vstupního bodu f(x) x Typy optimalizací III Globální optimalizace: • Hledání nejhlubšího minima v daném intervalu f(x) x Typy optimalizací IV Bez omezení X s omezeními: Bez omezení (unconstrained) Kromě podmínky minimality funkce f(x) neexistuje žádná jiná podmínka, kterou by měla hledaná optimální hodnota x splňovat. S omezeními (constrained) Vedle podmínky minimality pracujeme ještě s dalšími podmínkami. Lineární X nelineární: Lineární f(x) je lineární funkcí x Nelineární jinak Optimalizační metody Nederivační (ad hoc) metody Jednoduché metody Nelder-Meadova (simplexová) metoda Derivační metody První derivace Metoda největšího spádu + další spádové metody Metoda konjugovaných gradientů Druhá derivace Newton-Raphsonova metoda Quasi-Newtonova metoda Optimalizační metody Nederivační (ad hoc) metody Jednoduché metody Nelder-Meadova (simplexová) metoda Derivační metody První derivace Metoda největšího spádu + další spádové metody Metoda konjugovaných gradientů Druhá derivace Newton-Raphsonova metoda Quasi-Newtonova metoda Vzhledem k omezenému času probereme jen vyznačené metody Optimalizační metody Nederivační (ad hoc) metody Jednoduché metody Nelder-Meadova (simplexová) metoda Derivační metody První derivace Metoda největšího spádu + další spádové metody Metoda konjugovaných gradientů Druhá derivace Newton-Raphsonova metoda Quasi-Newtonova metoda Nyní se budeme věnovat jednoduchým nederivačním metodám Jednoduché metody Nejstarší z optimalizačních metod. Některé nejsou podloženy matematickou teorií, ostatní mají velmi jednoduchý princip. Konkrétně: • Postupná optimalizace proměnných • Systematické prohledávání • Náhodnostní metoda • Metoda alternujících proměnných Tyto metody probereme až v rámci globálních optimalizačních metod Jednoduché metody - postupná optimalizace proměnných Jedna z nejstarších optimalizačních metod (označována také „naivní metoda“ :-). Princip: Nejdříve nalezne minimum první proměnné (hodnoty ostatních proměnných se nemění). Původní hodnotu této proměnné nahradí nově nalezenou hodnotou. Analogicky jsou optimalizovány další proměnné. Zhodnocení: Metoda je použitelná pouze v některých případech: funkce 2 nebo 3 proměnných + vhodný tvar funkce. V součastnosti se tato metoda již nevyužívá. Jednoduché metody - metoda alternujících proměnných Anglicky označována alternating variables method. Princip: V iteraci k (k = 1, 2, ..., N*) se mění (je optimalizována) pouze proměnná xk, ostatní proměnné jsou ponechány. Poznámka: Proměnná xk je optimalizována např. tak, že jsou vypočítány hodnoty xk´ = xk+dx a xk = xk-dx, poté hodnoty f(x1, ..., xk´, ..., xN) a f(x1, ..., xk, ..., xN), a pak je pro další iteraci za xk použito nejvhodnější z xk´ a xk Po proběhnutí iterací 1 ... N, když jsou všechny hodnoty optimalizovány, se celý cyklus opakuje znovu (až do splnění podmínek minima). * N je dimenze prostoru, nad kterým je funkce definována. Jednoduché metody - metoda alternujících proměnných II Zhodnocení: Výhody: Jednoduchá implementace. Rozumná složitost. Nevýhody: V některých případech je tato metoda velmi neefektivní. Postup optimalizace je v těchto případech charakterizován oscilačním průběhem (viz následující obrázek). Navíc je znám problém (viz Practical methods of optimization), pro který metoda chybně konverguje k sedlovému bodu. Jednoduché metody - metoda alternujících proměnných III Příklad pomalé konvergence metody: Optimalizační metody Nederivační (ad hoc) metody Jednoduché metody Nelder-Meadova (simplexová) metoda Derivační metody První derivace Metoda největšího spádu + další spádové metody Metoda konjugovaných gradientů Druhá derivace Newton-Raphsonova metoda Quasi-Newtonova metoda Nelder-Meadova metoda - obecně Nazývá se také simplexová metoda. Základní myšlenka: N-rozměrným prostorem se pohybuje jistý objekt („améba“), který se může natahovat nebo zkracovat v různých směrech. Několik typů takových transformací má zajistit, aby se objekt posouval směrem do „údolí“ a po dosažení dna údolí se „plazil“ co nejkratší cestou k lokálnímu minimu. Nelder-Meadova metoda - obecně II Simplex: V N-rozměrném prostoru je „améba“ definována jako simplex s N+1 vrcholy s neprázdným obsahem, tj. jde o konvexní obal tvořený N+1 body. Zápis simplexu: S = {p1, p2, ..., pN}, kde pi  RN Příklady simplexů: R: R2: R3: Nelder-Meadova metoda - transformace Reflexe: Bod pi, který má největší funkční hodnotu se přemístí (odzrcadlí) na druhou stranu simplexu, tj. k bodu pi se přičte dvojnásobek rozdílu mezi pi a průměrem ostatních bodů .( ) p n j i j   Nelder-Meadova metoda - transformace II Reflexe a prodloužení: Totéž jako v předchozím případě, až na to, že simplex je prodloužen v novém směru (tj. přičítá se více než dvojnásobek rozdílu mezi nejhorším bodem a průměrem ostatních). Nelder-Meadova metoda - transformace III Kontrakce: Nejhorší bod se přiblíží k průměru ostatních. To je vhodné v případě, kdy má „améba“ projít úzkým údolím. Nelder-Meadova metoda - začátek výpočtu Na začátku výpočtu se simplex nejčastěji definuje takto: kde: i = 1, ..., N p0 pevně zvolený (počáteční) bod ei jednotkové vektory l konstanta, odrážející odhad měřítka optimalizačního problému (např. šířku „údolí“) p p ei 0 i= + l Nelder-Meadova metoda - ukončení výpočtu Metoda končí, pokud: – Není dosaženo výrazného snížení hodnoty studované funkce – simplex se v některém cyklu prakticky nezmění Nelder-Meadova metoda - zhodnocení Výhody: – Jednoduchá implementace – Rychlý výpočet 1 iterace – Rychlá konvergence v oblastech daleko od minima Nevýhody: – Pomalá konvergence v oblasteh poblíž minima – Může nastat situace, že výpočet neskončí v lokálním minimu Nelder-Meadova metoda - příklad aplikace Optimalizační metody Nederivační (ad hoc) metody Jednoduché metody Nelder-Meadova (simplexová) metoda Derivační metody První derivace Metoda největšího spádu + další spádové metody Metoda konjugovaných gradientů Druhá derivace Newton-Raphsonova metoda Quasi-Newtonova metoda Matematické základy Gradient: – Vektor prvních parciálních derivací funkce f v bodě x = (x1, x2, …, xn) – Označujeme ho f(x):             = nx f x f x f xf ,...,,)( 21 Poznámka: Funkce, kterými se budeme zabývat, budou mít spojité derivace, takže se nám gradient vždy podaří vypočítat :-). Metoda největšího spádu Anglicky označována steepest descent method. Princip: • Nacházím se v počátečním bodě výpočtu, tedy v bodě x(0). • Vydám se směrem, ve kterém studovaná funkce nejrychleji klesá. Tedy ve směru záporně vzatého gradientu funkce f v bodě x(0) (tento gradient označujeme f(x(0)) nebo zjednodušeně g(0)). • Poskočím tímto směrem malý kousek (definovaný konstantou a) do nového bodu (x(1)). • V bodě x(1) se opět vydám směrem největšího spádu – tedy ve směru záporně vzatého g(1) neboli -g(1). A poskočím malý kousek definovaný konstantou a do nového bodu (x(2)). • Stejně postupujeme i v dalších krocích Poznámka: Takto se kutálí kulička ze svahu. Poznámka 2: Vždy poskočíme jen malý kousek, protože nevíme, jestli funkce v původním směru už v novém bodě nepřestává klesat nebo dokonce neroste. Proto v novém bodě opět vyhledám směr největšího spádu. Metoda největšího spádu Postup: • zvolíme výchozí bod x(0) • k-tá iterace: bod x(k+1) vypočítáme z bodu x(k) pomocí vztahu: x(k+1) = x(k) - a.g(k), kde: -g(k) zjednodušený zápis -f(x(k)), určuje směr přesunu z bodu x(k) a koeficient, popisující délku daného přesunu Metoda největšího spádu - volba a v metodě největšího spádu Metoda největšího spádu volí pro každý krok stejnou hodnotu a. Konkrétně velmi malou hodnotu a. Poznámka: Hodnoty a musí být dostatečně malá, aby metoda konvergovala (= blížila se k minimu). Metoda největšího spádu zhodnocení Výhody: • Implementačně jednoduché • Nízká prostorová složitost Nevýhody: • Velmi pomalá konvergence (speciálně v oblastech malého spádu => nízkých hodnot gradientu). • Chyby, způsobené zaokrouhlením. Mohou vést i k tomu, že se výpočet vůbec nedostane rozumně blízko k minimu. Ale při (ideální) přesné aritmetice metoda konverguje vždy k nějakému lokálnímu minimu. Metoda největšího spádu - příklad 1 Funkce: f(x1, x2) = x1 2 + 2x2 2 Výchozí bod: x(0) = (2, 1) Parametr a: a = 0,25 Gradient funkce (obecně): g(x1, x2) = (2x1, 4x2) Poznámka: g(x1, x2) = ( 𝜕(x1 2 + 2x2 2 ) 𝜕𝑥1 , 𝜕(x1 2 + 2x2 2 ) 𝜕𝑥2 ) Metoda největšího spádu - příklad 1 Výchozí bod: x(0) = (2, 1) 1. iterace: výpočet x(1): g(0)= (2.x1 (0), 4.x2 (0)) = (2.2, 4.1) = (4, 4) x(1) = x(0) – a.g(0) = (2, 1) - 0,25.(4, 4) = (2, 1) – (1, 1) = (1, 0) 2. iterace: výpočet x(2): g(1)= (2.1, 4.0) = (2, 0) x(2) = x(1) – a.g(1) = (1, 0) - 0,25.(2, 0) = (1, 0) – (0,5, 0) = (0,5, 0) 3. iterace: výpočet x(3): g(2)= (2.0,5, 4.0) = (1, 0) x(3) = x(2) – a.g(2) = (0,5, 0) - 0,25.(1, 0) = (0,5, 0) – (0,25, 0) = (0,25, 0) Metoda největšího spádu - příklad 1 Iterace x1 x2 g(x1) g(x2) f(x1,x2) a 0 2 1 4 4 6 1 1 0 2 0 1 0.25 2 0.5 0 1 0 0.25 0.25 3 0.25 0 0.5 0 0.0625 0.25 4 0.125 0 0.25 0 0.015625 0.25 5 0.0625 0 0.125 0 0.003906 0.25 6 0.03125 0 0.0625 0 0.000977 0.25 7 0.015625 0 0.03125 0 0.000244 0.25 8 0.007813 0 0.015625 0 6.1E-05 0.25 9 0.003906 0 0.007813 0 1.53E-05 0.25 10 0.001953 0 0.003906 0 3.81E-06 0.25 11 0.000977 0 0.001953 0 9.54E-07 0.25 12 0.000488 0 0.000977 0 2.38E-07 0.25 13 0.000244 0 0.000488 0 5.96E-08 0.25 14 0.000122 0 0.000244 0 1.49E-08 0.25 15 6.1E-05 0 0.000122 0 3.73E-09 0.25 16 3.05E-05 0 6.1E-05 0 9.31E-10 0.25 17 1.53E-05 0 3.05E-05 0 2.33E-10 0.25 18 7.63E-06 0 1.53E-05 0 5.82E-11 0.25 19 3.81E-06 0 7.63E-06 0 1.46E-11 0.25 20 1.91E-06 0 3.81E-06 0 3.64E-12 0.25 Prvních 20 iterací výpočtu: Graf posunu bodu x(k) do minima: 0 0.2 0.4 0.6 0.8 1 1.2 0 0.5 1 1.5 2 2.5 x2 x1 Metoda největšího spádu - příklad 1 b) Prvních 20 iterací výpočtu: Graf posunu bodu x(k) do minima: Nižší hodnota a (a = 0,01) má za důsledek pomalejší přesun do minima. Iterace x1 x2 g(x1) g(x2) f(x1,x2) a 0 2 1 4 4 6 1 1.96 0.96 3.92 3.84 5.6848 0.01 2 1.9208 0.9216 3.8416 3.6864 5.388166 0.01 3 1.882384 0.884736 3.764768 3.538944 5.108885 0.01 4 1.844736 0.849347 3.689473 3.397386 4.845831 0.01 5 1.807842 0.815373 3.615683 3.261491 4.597956 0.01 6 1.771685 0.782758 3.54337 3.131031 4.364286 0.01 7 1.736251 0.751447 3.472502 3.00579 4.143914 0.01 8 1.701526 0.72139 3.403052 2.885558 3.935997 0.01 9 1.667496 0.692534 3.334991 2.770136 3.739748 0.01 10 1.634146 0.664833 3.268291 2.659331 3.554437 0.01 11 1.601463 0.638239 3.202925 2.552957 3.379382 0.01 12 1.569433 0.61271 3.138867 2.450839 3.213948 0.01 13 1.538045 0.588201 3.07609 2.352805 3.057543 0.01 14 1.507284 0.564673 3.014568 2.258693 2.909617 0.01 15 1.477138 0.542086 2.954276 2.168346 2.769653 0.01 16 1.447595 0.520403 2.895191 2.081612 2.637171 0.01 17 1.418644 0.499587 2.837287 1.998347 2.511723 0.01 18 1.390271 0.479603 2.780541 1.918413 2.392891 0.01 19 1.362465 0.460419 2.72493 1.841677 2.280283 0.01 20 1.335216 0.442002 2.670432 1.76801 2.173534 0.01 0 0.2 0.4 0.6 0.8 1 1.2 0 0.5 1 1.5 2 2.5 x2 x1 Bod x(k) v průběhu výpočtu Metoda největšího spádu - příklad 1 c) Prvních 20 iterací výpočtu: Graf posunu bodu x(k) do minima: -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1 1.2 0 0.5 1 1.5 2 2.5 x2 x1 Iterace x1 x2 g(x1) g(x2) f(x1,x2) a 0 2 1 4 4 6 1 0.6 -0.4 1.2 -1.6 0.68 0.35 2 0.18 0.16 0.36 0.64 0.0836 0.35 3 0.054 -0.064 0.108 -0.256 0.011108 0.35 4 0.0162 0.0256 0.0324 0.1024 0.001573 0.35 5 0.00486 -0.01024 0.00972 -0.04096 0.000233 0.35 6 0.001458 0.004096 0.002916 0.016384 3.57E-05 0.35 7 0.000437 -0.00164 0.000875 -0.00655 5.56E-06 0.35 8 0.000131 0.000655 0.000262 0.002621 8.76E-07 0.35 9 3.94E-05 -0.00026 7.87E-05 -0.00105 1.39E-07 0.35 10 1.18E-05 0.000105 2.36E-05 0.000419 2.21E-08 0.35 11 3.54E-06 -4.2E-05 7.09E-06 -0.00017 3.53E-09 0.35 12 1.06E-06 1.68E-05 2.13E-06 6.71E-05 5.64E-10 0.35 13 3.19E-07 -6.7E-06 6.38E-07 -2.7E-05 9.02E-11 0.35 14 9.57E-08 2.68E-06 1.91E-07 1.07E-05 1.44E-11 0.35 15 2.87E-08 -1.1E-06 5.74E-08 -4.3E-06 2.31E-12 0.35 16 8.61E-09 4.29E-07 1.72E-08 1.72E-06 3.69E-13 0.35 17 2.58E-09 -1.7E-07 5.17E-09 -6.9E-07 5.9E-14 0.35 18 7.75E-10 6.87E-08 1.55E-09 2.75E-07 9.45E-15 0.35 19 2.32E-10 -2.7E-08 4.65E-10 -1.1E-07 1.51E-15 0.35 20 6.97E-11 1.1E-08 1.39E-10 4.4E-08 2.42E-16 0.35 Vyšší hodnota a (a = 0,35) má za důsledek rychlejší přesun do minima. Metoda největšího spádu - příklad 1 d) Prvních 20 iterací výpočtu: Graf posunu bodu x(k) do minima: Příliš vysoká hodnota a (a = 0,6) má za důsledek, že metoda nekonverguje k minimu. -20000000 -15000000 -10000000 -5000000 0 5000000 10000000 15000000 -1 -0.5 0 0.5 1 1.5 2 2.5 x2 x1 Iterace x1 x2 g(x1) g(x2) f(x1,x2) a 0 2 1 4 4 6 1 -0.4 -1.4 -0.8 -5.6 4.08 0.6 2 0.08 1.96 0.16 7.84 7.6896 0.6 3 -0.016 -2.744 -0.032 -10.976 15.05933 0.6 4 0.0032 3.8416 0.0064 15.3664 29.51579 0.6 5 -0.00064 -5.37824 -0.00128 -21.513 57.85093 0.6 6 0.000128 7.529536 0.000256 30.11814 113.3878 0.6 7 -2.6E-05 -10.5414 -5.1E-05 -42.1654 222.2401 0.6 8 5.12E-06 14.75789 1.02E-05 59.03156 435.5907 0.6 9 -1E-06 -20.661 -2E-06 -82.6442 853.7577 0.6 10 2.05E-07 28.92547 4.1E-07 115.7019 1673.365 0.6 11 -4.1E-08 -40.4957 -8.2E-08 -161.983 3279.796 0.6 12 8.19E-09 56.69391 1.64E-08 226.7756 6428.399 0.6 13 -1.6E-09 -79.3715 -3.3E-09 -317.486 12599.66 0.6 14 3.28E-10 111.1201 6.55E-10 444.4803 24695.34 0.6 15 -6.6E-11 -155.568 -1.3E-10 -622.272 48402.86 0.6 16 1.31E-11 217.7953 2.62E-11 871.1813 94869.61 0.6 17 -2.6E-12 -304.913 -5.2E-12 -1219.65 185944.4 0.6 18 5.24E-13 426.8789 1.05E-12 1707.515 364451.1 0.6 19 -1E-13 -597.63 -2.1E-13 -2390.52 714324.2 0.6 20 2.1E-14 836.6826 4.19E-14 3346.73 1400075 0.6 Metoda největšího spádu - příklad 1 Ve studijních materiálech naleznete i excelový soubor metody_prvni_derivace_priklad1.xlsx. V tomto souboru jsou výše uvedené grafy a tabulky. Metoda největšího spádu - příklad 2 Funkce: f(x1, x2) = 2x1 – 2x2 + x1x2 + 2x1 2 + x2 2 Výchozí bod: x(0) = (0, 0) Parametr a: a = 0,1 Gradient funkce (obecně): g(x1, x2) = (2+x2+4x1, -2+x1+2x2) Metoda největšího spádu - příklad 2 Výchozí bod: x(0) = (0, 0) 1. iterace: výpočet x(1): g(0)= (2+0+4.0, -2+0+2.0) = (2, -2) x(1) = x(0) – a.g(0) = (0, 0) - 0,1.(2, -2) = (0, 0) – (0.2, -0.2) = (-0.2, 0.2) 2. iterace: výpočet x(2): g(1)= (2+0.2-4.0,2, -2-0,2+2.0,2) = (1,4, -1,8) x(2) = x(1) – a.g(1) = (-0,2, 0.2) - 0,1.(1,4, -1,8) = (-0.2, 0.2) - (0,14, -0,18) = (-0,34, 0,38) 3. iterace: výpočet x(3): g(2)= (2+0.38-4.0,34, -2-0,34+2.0,38) = (1,02, -1,58) x(3) = x(2) – a.g(2) = (-0,34, 0,38) - 0,1.(-0.34, 0,38) = (-0,442, 0,538) Metoda největšího spádu - příklad 2 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 -1 -0.8 -0.6 -0.4 -0.2 0 x2 x1 Prvních 20 iterací výpočtu: Graf posunu bodu x(k) do minima: Iterace x1 x2 g(x1) g(x2) f(x1,x2) a 0 0 0 2 -2 0 1 -0.2 0.2 1.4 -1.8 -0.72 0.1 2 -0.34 0.38 1.02 -1.58 -1.1936 0.1 3 -0.442 0.538 0.77 -1.366 -1.51762 0.1 4 -0.519 0.6746 0.5986 -1.1698 -1.74351 0.1 5 -0.57886 0.79158 0.47614 -0.9957 -1.90234 0.1 6 -0.62647 0.89115 0.385254 -0.84417 -2.01444 0.1 7 -0.665 0.975567 0.31557 -0.71386 -2.09371 0.1 8 -0.69656 1.046954 0.260728 -0.60265 -2.14979 0.1 9 -0.72263 1.107219 0.216702 -0.50819 -2.18949 0.1 10 -0.7443 1.158038 0.18084 -0.42822 -2.21759 0.1 11 -0.76238 1.20086 0.151327 -0.36066 -2.23748 0.1 12 -0.77752 1.236927 0.126862 -0.30366 -2.25157 0.1 13 -0.7902 1.267293 0.106484 -0.25562 -2.26154 0.1 14 -0.80085 1.292855 0.089452 -0.21514 -2.2686 0.1 15 -0.8098 1.314369 0.075185 -0.18106 -2.2736 0.1 16 -0.81731 1.332475 0.063217 -0.15237 -2.27713 0.1 17 -0.82364 1.347711 0.053167 -0.12821 -2.27964 0.1 18 -0.82895 1.360532 0.044721 -0.10789 -2.28141 0.1 19 -0.83342 1.371321 0.037622 -0.09078 -2.28267 0.1 20 -0.83719 1.380399 0.031651 -0.07639 -2.28356 0.1 Metoda největšího spádu - příklad 1 Ve studijních materiálech naleznete i excelový soubor metody_prvni_derivace_priklad2.xlsx. V tomto souboru je výše uvedený graf a tabulka. Podmínky ukončení optimalizace Minimalizaci lze ukončit, když je splněna alespoň jedna z těchto podmínek: • Hodnota gradientu se blíží nule Zdůvodnění: V minimu platí g = 0. • Bod x se vzhledem k minulé iteraci posune jen minimálně • Funkční hodnota f(x) se vzhledem k minulé iteraci změní jen minimálně Motivační příklad: Optimalizace geometrie molekuly Je dána molekula, urči konformace této molekuly, které jsou v definovaném chemickém prostředí nejstabilnější. Konformace = uspořádání atomů v prostoru. Strukturní vzorec: Konformace: Židličková Zkřížená židličková Vaničková Poloviční židličková Motivační příklad: Optimalizace geometrie molekuly Čím je konformace stabilnější, tím nižší má potenciální energii. Potenciální energie = energie daného uspořádání atomů v prostoru. Epot = f(souřadnic atomů) kde f je potenciálová funkce f : R3N → R, kde N je počet atomů v molekule. Motivační příklad: Optimalizace geometrie molekuly Vytvoříme model molekuly: Nabité koule, spojené pružinami. Motivační příklad: Optimalizace geometrie molekuly Popíšeme vztah mezi souřadnicemi a Epot: Nevazebné interakce Vazebné interakce Motivační příklad: Optimalizace geometrie molekuly Grafem potenciálové funkce je potenciálová hyperplocha (PES): Otázka: Které prostorové uspořádání (konformace) cyklohexanu je energeticky nejvýhodnější? Židličková Zkřížená židličková Možné konformace: Vaničková Poloviční židličková Strukturní vzorec: Motivační příklad: Optimalizace geometrie molekuly Motivační příklad: Optimalizace geometrie molekuly Hledáme minima potenciálové funkce. Nejnižší potenciální energii má židličková konformace Tento výsledek souhlasí s experimentálními výsledky.