Wyszukiwanie zaawansowane
Kategorie
Kategorie BISAC
Książki na zamówienie
Promocje
Granty
Książka na prezent
Opinie
Pomoc
Załóż konto
Zaloguj się
Introduction to Multi-Armed Bandits » książka
zaloguj się
|
załóż konto
koszyk
konto
szukaj
topmenu
Szukaj
Książki na zamówienie
Promocje
Granty
Książka na prezent
Moje konto
Pomoc
Wyszukiwanie zaawansowane
Pusty koszyk
Kategorie główne
•
Nauka
[2678508]
•
Literatura piękna
[1635285]
więcej...
•
Turystyka
[64041]
•
Informatyka
[142605]
•
Komiksy
[32622]
•
Encyklopedie
[21611]
•
Dziecięca
[515985]
•
Hobby
[108831]
•
AudioBooki
[2077]
•
Literatura faktu
[198745]
•
Muzyka CD
[655]
•
Słowniki
[2748]
•
Inne
[405763]
•
Kalendarze
[1920]
•
Podręczniki
[165164]
•
Poradniki
[410648]
•
Religia
[455855]
•
Czasopisma
[400]
•
Sport
[59759]
•
Sztuka
[227679]
•
CD, DVD, Video
[3917]
•
Technologie
[205170]
•
Zdrowie
[88650]
•
Książkowe Klimaty
[126]
•
Zabawki
[3088]
•
Puzzle, gry
[3369]
•
Literatura w języku ukraińskim
[266]
•
Art. papiernicze i szkolne
[10257]
Kategorie szczegółowe BISAC
Introduction to Multi-Armed Bandits
ISBN-13
: 9781680836202 / Angielski / Miękka / 2019 / 306 str.
Aleksandrs Slivkins
Widoczna okładka, to zdjęcie poglądowe, a rzeczywista szata graficzna może różnić się od prezentowanej.
Introduction to Multi-Armed Bandits
ISBN-13
: 9781680836202 / Angielski / Miękka / 2019 / 306 str.
Aleksandrs Slivkins
cena
484,32
zł
(netto: 461,26 VAT: 5%)
Najniższa cena z 30 dni: 452,89 zł
Termin realizacji zamówienia:
ok. 13-18 dni roboczych
Dostawa przed świętami
Darmowa dostawa!
do przechowalni
Parametry
Spis treści
Kategorie:
Informatyka
,
Sprzęt komputerowy
Kategorie BISAC:
Computers
>
Machine Theory
Wydawca:
Now Publishers
Seria wydawnicza:
Foundations and Trends(r) in Machine Learning
Język:
Angielski
ISBN-13:
9781680836202
Rok wydania:
2019
Numer serii:
000465204
Ilość stron:
306
Waga:
0.43 kg
Wymiary:
23.39 x 15.6 x 1.65
Oprawa:
Miękka
Wolumenów:
01
Preface
Introduction: Scope and Motivation
1. Stochastic Bandits
2. Lower Bounds
3. Bayesian Bandits and Thompson Sampling
4. Lipschitz Bandits
5. Full Feedback and Adversarial Costs
6. Adversarial Bandits
7. Linear Costs and Semi-bandits
8. Contextual Bandits
9. Bandits and Games
10. Bandits with Knapsacks
11. Bandits and Incentives
Appendices
Acknowledgements
References
Udostępnij
Czytaj nas na: