Donazioni 15 September, 2024 – 1 Ottobre, 2024
Sulla raccolta fondi
ricerca dei libri
libri
Donazioni:
71.7% compiuto
Entrare
Entrare
gli utenti autorizzati hanno accesso a:
raccomandazioni personali
Telegram bot
cronologia dei download
inviare a email o Kindle
gestione delle raccolte
salvare nei preferiti
Personale
Richieste di libro
Studia
Z-Recommend
Elenco libri
Più popolari
Categorie
Partecipazione
Donare
Caricamenti
Litera Library
Dona i libri cartacei
Aggiungi i libri cartacei
Search paper books
Mio LITERA Point
Ricerca termini
Main
Ricerca termini
search
1
TensorFlow Reinforcement Learning Quick Start Guide: Get up and running with training and deploying intelligent, self-learning agents using Python. Code
Packt Publishing
Balakrishnan
,
Kaushik
gradients
_output_shapes
atrain
kernel
critic
bias
_class
const
dtype
dense
dense_2
oldpi
initializer
assign
dense_1
dense_3
ÿÿÿÿÿÿÿÿÿ
tuple
adam_1
shape
random_uniform
prob
log_prob
minimum_grad
use_locking
reshape
sub_grad
dense_4
validate_shape
zeros
standardize
shape_and_slices
tensor_names
matmul_grad
group_deps
dense_5
dense_6
dense_7
dense_8
import
biasadd_grad
control_dependency
normal_2
normal_3
mul_grad
matmul
reshape_1
broadcastgradientargs
clip_by_value
shape_1
Anno:
2019
Lingua:
english
File:
ZIP, 6.31 MB
I tuoi tag:
0
/
0
english, 2019
2
Deep Generative Modeling
Springer
Jakub M. Tomczak
models
neural
generative
arxiv
function
latent
variational
modeling
networks
variables
prior
compression
qφ
probability
encoder
pθ
network
conference
linear
preprint
invertible
sample
likelihood
vae
vaes
posterior
discrete
layer
calculate
matrix
objective
random
decoder
distributions
gaussian
torch
autoregressive
hierarchical
values
entropy
transformations
approach
coupling
presented
elbo
encoders
processing
__init__
inference
tomczak
Anno:
2022
Lingua:
english
File:
PDF, 4.05 MB
I tuoi tag:
5.0
/
4.0
english, 2022
3
Deep Generative Modeling
Springer
Jakub M. Tomczak
models
neural
generative
arxiv
function
latent
variational
modeling
networks
variables
prior
compression
qφ
probability
encoder
pθ
network
conference
linear
preprint
invertible
sample
likelihood
vae
vaes
posterior
discrete
layer
calculate
matrix
objective
random
decoder
distributions
gaussian
torch
autoregressive
hierarchical
values
entropy
transformations
approach
coupling
presented
elbo
encoders
processing
__init__
inference
tomczak
Anno:
2022
Lingua:
english
File:
PDF, 4.20 MB
I tuoi tag:
5.0
/
5.0
english, 2022
1
Segui
questo link
o cerca il bot "@BotFather" in Telegram
2
Invia il comando /newbot
3
Inserisci un nome del tuo bot
4
Inserisci un nome utente del bot
5
Copia l'ultimo messaggio da BotFather e incollalo qui
×
×