Funkcja Rosenbrocka – funkcja niewypukła używana w optymalizacji jako test dla algorytmów optymalizacji. Zwana jest też ze względu na swój kształt „doliną Rosenbrocka” lub „funkcją bananową Rosenbrocka”.

Metoda gradientu sprzężonego jest algorytmem numerycznym służącym do rozwiązywania niektórych układów równań liniowych. Pozwala rozwiązać te, których macierz jest symetryczna i dodatnio określona. Metoda gradientu sprzężonego jest metodą iteracyjną, więc może być zastosowana do układów o rzadkich macierzach, które mogą być zbyt duże dla algorytmów bezpośrednich takich jak np. rozkład Choleskiego. Takie układy pojawiają się często w trakcie numerycznego rozwiązywania równań różniczkowych cząstkowych.

Algorytm mrówkowy – algorytm zaproponowany przez Marco Dorigo, będący probabilistyczną techniką rozwiązywania problemów poprzez szukanie dobrych dróg w grafach. Jest on zainspirowany zachowaniem mrówek szukających pożywienia dla swojej kolonii.

Optymalizacja – problem polegający na znalezieniu ekstremum zadanej funkcji celu.

Subróżniczka, subgradient, subpochodna – pojęcia pojawiające się w analizie wypukłej, czyli badaniu funkcji wypukłych, często w powiązaniu z optymalizacją wypukłą.

Subróżniczka, subgradient, subpochodna – pojęcia pojawiające się w analizie wypukłej, czyli badaniu funkcji wypukłych, często w powiązaniu z optymalizacją wypukłą.

Subróżniczka, subgradient, subpochodna – pojęcia pojawiające się w analizie wypukłej, czyli badaniu funkcji wypukłych, często w powiązaniu z optymalizacją wypukłą.