Diferente pentru blog/suma-in-triunghi-rezolvare intre reviziile #13 si #14

Nu exista diferente intre titluri.

Diferente intre continut:

Functiile convexe sunt functiile pentru care graficul lor se afla sub orice segment de dreapta ce uneste doua puncte ale graficului. Mai formal, avem ca daca f:X->R unde x e un domeniu convex (interval etc.) atunci pentru oricare doua puncte x1 si x2 din X si orice t din intervalul [0, 1] avem ca f(tx1 + (1-t)x2) <= tf(x1) + (1-t)f(x2).
'Functiile convexe':http://en.wikipedia.org/wiki/Convex_function sunt functiile pentru care graficul lor se afla sub orice segment de dreapta ce uneste doua puncte ale graficului. Mai formal, avem ca daca f:X->R unde x e un domeniu convex (interval etc.) atunci pentru oricare doua puncte x1 si x2 din X si orice t din intervalul [0, 1] avem ca f(tx1 + (1-t)x2) <= tf(x1) + (1-t)f(x2).
E simplu de demonstrat ca suma a doua functii convexe e tot o functie convexa. Functiile strict convexe au proprietatile interesante ca ele au doar un minim local care este si global si ca maximul pentru o functie convexa e realizat pe marginea domeniului de definitie.
E simplu de demonstrat ca suma a doua functii convexe e tot o functie convexa. O proprietate utila pentru problema noastra este ca ca maximul pentru o functie convexa e realizat pe marginea domeniului de definitie.
*Rezolvare*
In cazul problemei noastre, functia distanta e o functie strict convexa si o combinatia din problema 2dist(M, A) + dist(M, B) + dist(M, C) este si ea o functie convexa. Si cum maximul pentru functii de genul asta e realizat in capete, ne e deajuns sa ne uitam la valoarea functiei in punctele A, B si C. Astfel vedem ca C e punctul cautat.
Daca A, B si C au coordonatele (0, 0), (3, 0), (0, 4) se observa usor ca punctul C minimizeaza functia noastra.
In machine learning apare frecvent problema de minimizare a valorii unei functii. Cele mai multe functii nu sunt usor de minimizat. Nu au o forma care poate fi rezolvata matematic sau sunt neregulate si au multe optime locale. Pentru a putea obtine solutii bune, de multe ori functiile astea sunt aproximate sau marginite de functii convexe pentru care exista algoritmi buni de minimizare, cel mai simplu ar fi gradient descent.
Functiile convexe sunt folositoare in multi algoritmi folositi in machine learning. De multe ori e nevoie sa se obtina un punct ce minimizeaza cate o functie. D
 
O proprietate importanta a functiilor convexe este ca au doar un minim local care este si global. Astfel problema minimizarii valorii unei functii este mai simplu de rezolvat pentru functii convexe.
In machine learning apare frecvent aceasta problema. Functiile generale nu sunt usor de minimizat. Nu au o forma care poate fi rezolvata matematic sau sunt neregulate si au multe optime locale. Pentru a putea obtine solutii bune, de multe ori functiile generale sunt aproximate sau marginite de functii convexe pentru care exista algoritmi eficienti de minimizare, cum ar fi gradient descent.
Aveti aici codul octave cu care am generat graficul de mai sus.
== code(c) |

Nu exista diferente intre securitate.

Topicul de forum nu a fost schimbat.