添加链接
link管理
链接快照平台
  • 输入网页链接,自动生成快照
  • 标签化管理网页链接
  • 使用卷积神经网络进行图像分类
  • CIFAR-100数据集上基于Vision Transformer 实现图片分类
  • GAMMA比赛多模态眼底图像数据集下基于EfficientNet和ResNet构造fundus_img和oct_img的分类模型
  • MosMedData: 新冠肺炎胸部 CT扫描数据集上基于3D-CNN实现二分类
  • 基于图片相似度的图片搜索
  • 基于U-Net卷积神经网络实现宠物图像分割
  • 通过OCR实现验证码识别
  • 通过Sub-Pixel实现图像超分辨率
  • 人脸关键点检测
  • 点云处理:实现PointNet点云分类
  • 点云处理:实现PointNet点云分割
  • 自然语言处理
  • 用N-Gram模型在莎士比亚文集中训练word embedding
  • IMDB 数据集使用BOW网络的文本分类
  • 使用预训练的词向量完成文本分类任务
  • 使用注意力机制的LSTM的机器翻译
  • 基于Transformer实现英语到西班牙语的翻译任务
  • 使用序列到序列模型完成数字加法
  • 使用协同过滤实现电影推荐
  • 强化学习——Actor Critic Method
  • 强化学习——Advantage Actor-Critic(A2C)
  • 强化学习——Deep Deterministic Policy Gradient (DDPG)
  • 强化学习——DQN玩合成大西瓜
  • 用飞桨框架2.0造一个会下五子棋的AI模型
  • 通过AutoEncoder实现时序数据异常检测
  • Jena Climate时间序列数据集上使用LSTM进行温度的预报
  • 证券数据集下使用LSTM模型预测A股走势
  • 使用动转静完成以图搜图
  • 生成式对抗网络
  • 图像风格迁移模型-CycleGAN
  • 通过DCGAN实现人脸图像生成
  • MNIST数据集下用Paddle框架的动态图模式玩耍经典对抗生成网络(GAN)
  • 城市街景分割数据集下使用对抗网络Pix2Pix根据掩码生成街景
  • API 文档
  • paddle
  • Overview
  • acos_
  • acosh
  • add_n
  • addmm
  • allclose
  • angle
  • arange
  • argmax
  • argmin
  • argsort
  • as_complex
  • as_real
  • as_strided
  • asinh
  • assign
  • atan2
  • atan_
  • atanh
  • atleast_1d
  • atleast_2d
  • atleast_3d
  • batch
  • bernoulli
  • bernoulli_
  • bincount
  • binomial
  • bitwise_and
  • bitwise_left_shift
  • bitwise_left_shift_
  • bitwise_not
  • bitwise_or
  • bitwise_right_shift
  • bitwise_right_shift_
  • bitwise_xor
  • block_diag
  • broadcast_shape
  • broadcast_tensors
  • broadcast_to
  • bucketize
  • cdist
  • ceil_
  • chunk
  • clip_
  • clone
  • column_stack
  • combinations
  • complex
  • concat
  • copysign
  • copysign_
  • count_nonzero
  • CPUPlace
  • create_parameter
  • cross
  • CUDAPinnedPlace
  • CUDAPlace
  • cummax
  • cummin
  • cumprod
  • cumsum
  • cumulative_trapezoid
  • DataParallel
  • deg2rad
  • diag_embed
  • diagflat
  • diagonal
  • diagonal_scatter
  • digamma
  • disable_signal_handler
  • disable_static
  • divide
  • dsplit
  • dstack
  • einsum
  • empty
  • empty_like
  • enable_grad
  • enable_static
  • equal
  • equal_all
  • erfinv
  • erfinv_
  • expand
  • expand_as
  • expm1
  • expm1_
  • finfo
  • flatten
  • flatten_
  • floor
  • floor_
  • floor_divide
  • flops
  • frexp
  • full_like
  • gammainc
  • gammainc_
  • gammaincc
  • gammaincc_
  • gammaln
  • gammaln_
  • gather
  • gather_nd
  • get_cuda_rng_state
  • get_default_dtype
  • get_flags
  • get_rng_state
  • greater_equal
  • greater_than
  • heaviside
  • histogram
  • histogramdd
  • hsplit
  • hstack
  • hypot
  • hypot_
  • iinfo
  • in_dynamic_mode
  • increment
  • index_add
  • index_add_
  • index_fill
  • index_fill_
  • index_put
  • index_put_
  • index_sample
  • index_select
  • inner
  • is_complex
  • is_empty
  • is_floating_point
  • is_grad_enabled
  • is_integer
  • is_tensor
  • isclose
  • isfinite
  • isinf
  • isnan
  • isneginf
  • isposinf
  • isreal
  • kthvalue
  • LazyGuard
  • ldexp
  • lerp_
  • less_equal
  • less_than
  • lgamma
  • linspace
  • log10
  • log1p
  • log_normal
  • log_normal_
  • logaddexp
  • logcumsumexp
  • logical_and
  • logical_not
  • logical_or
  • logical_xor
  • logit
  • logspace
  • logsumexp
  • masked_fill
  • masked_fill_
  • masked_scatter
  • masked_scatter_
  • masked_select
  • matmul
  • maximum
  • median
  • meshgrid
  • minimum
  • Model
  • moveaxis
  • multigammaln
  • multigammaln_
  • multinomial
  • multiplex
  • multiply
  • nan_to_num
  • nanmean
  • nanmedian
  • nanquantile
  • nansum
  • nextafter
  • no_grad
  • nonzero
  • normal
  • not_equal
  • NPUPlace
  • numel
  • ones_like
  • outer
  • ParamAttr
  • pdist
  • poisson
  • polar
  • polygamma
  • put_along_axis
  • put_along_axis_
  • quantile
  • rad2deg
  • randint
  • randint_like
  • randn
  • randperm
  • reciprocal
  • reciprocal_
  • reduce_as
  • remainder
  • remainder_
  • renorm
  • repeat_interleave
  • reshape
  • reshape_
  • rot90
  • round
  • round_
  • row_stack
  • rsqrt
  • rsqrt_
  • scale
  • scale_
  • scatter
  • scatter_
  • scatter_nd
  • scatter_nd_add
  • searchsorted
  • select_scatter
  • set_cuda_rng_state
  • set_default_dtype
  • set_flags
  • set_grad_enabled
  • set_printoptions
  • set_rng_state
  • shape
  • shard_index
  • signbit
  • sinc_
  • sinh_
  • slice
  • slice_scatter
  • split
  • sqrt_
  • square
  • square_
  • squeeze
  • squeeze_
  • stack
  • standard_normal
  • stanh
  • strided_slice
  • subtract
  • subtract_
  • summary
  • take_along_axis
  • tanh_
  • Tensor
  • tensor_split
  • tensordot
  • to_tensor
  • tolist
  • trace
  • transpose
  • trapezoid
  • tril_indices
  • triu_indices
  • trunc
  • unbind
  • unflatten
  • unfold
  • uniform
  • uniform_
  • unique
  • unique_consecutive
  • unsqueeze
  • unsqueeze_
  • unstack
  • vander
  • view_as
  • vsplit
  • vstack
  • where
  • zeros
  • zeros_like
  • paddle.amp
  • Overview
  • auto_cast
  • debugging
  • check_layer_numerics
  • check_numerics
  • collect_operator_stats
  • compare_accuracy
  • DebugMode
  • disable_operator_stats_collection
  • disable_tensor_checker
  • enable_operator_stats_collection
  • enable_tensor_checker
  • TensorCheckerConfig
  • decorate
  • GradScaler
  • is_bfloat16_supported
  • is_float16_supported
  • paddle.audio
  • Overview
  • backends
  • get_current_backend
  • list_available_backends
  • set_backend
  • datasets
  • ESC50
  • features
  • LogMelSpectrogram
  • MelSpectrogram
  • Spectrogram
  • functional
  • compute_fbank_matrix
  • create_dct
  • fft_frequencies
  • get_window
  • hz_to_mel
  • mel_frequencies
  • mel_to_hz
  • power_to_db
  • paddle.autograd
  • Overview
  • backward
  • hessian
  • jacobian
  • PyLayer
  • PyLayerContext
  • saved_tensors_hooks
  • paddle.callbacks
  • Overview
  • Callback
  • EarlyStopping
  • LRScheduler
  • ModelCheckpoint
  • ProgBarLogger
  • ReduceLROnPlateau
  • VisualDL
  • paddle.device
  • Overview
  • current_stream
  • device_count
  • empty_cache
  • Event
  • get_device_capability
  • get_device_name
  • get_device_properties
  • max_memory_allocated
  • max_memory_reserved
  • memory_allocated
  • memory_reserved
  • Stream
  • stream_guard
  • synchronize
  • current_stream
  • Event
  • get_all_custom_device_type
  • get_all_device_type
  • get_available_custom_device
  • get_available_device
  • get_cudnn_version
  • get_device
  • IPUPlace
  • is_compiled_with_cinn
  • is_compiled_with_cuda
  • is_compiled_with_custom_device
  • is_compiled_with_ipu
  • is_compiled_with_mlu
  • is_compiled_with_npu
  • is_compiled_with_rocm
  • is_compiled_with_xpu
  • MLUPlace
  • set_device
  • set_stream
  • Stream
  • stream_guard
  • synchronize
  • XPUPlace
  • paddle.distributed
  • Overview
  • all_gather
  • all_gather_object
  • all_reduce
  • alltoall
  • alltoall_single
  • barrier
  • broadcast
  • broadcast_object_list
  • destroy_process_group
  • DistAttr
  • DistModel
  • dtensor_from_fn
  • fleet
  • DistributedStrategy
  • Fleet
  • PaddleCloudRoleMaker
  • UserDefinedRoleMaker
  • UtilBase
  • utils
  • HDFSClient
  • LocalFS
  • recompute
  • get_backend
  • get_group
  • get_rank
  • get_world_size
  • gloo_barrier
  • gloo_init_parallel_env
  • gloo_release
  • init_parallel_env
  • InMemoryDataset
  • irecv
  • is_available
  • is_initialized
  • isend
  • launch
  • new_group
  • ParallelEnv
  • Partial
  • Placement
  • ProcessMesh
  • QueueDataset
  • reduce
  • reduce_scatter
  • ReduceOp
  • ReduceType
  • Replicate
  • reshard
  • get_all_worker_infos
  • get_current_worker_info
  • get_worker_info
  • init_rpc
  • rpc_async
  • rpc_sync
  • shutdown
  • scatter
  • scatter_object_list
  • Shard
  • shard_layer
  • shard_optimizer
  • shard_scaler
  • shard_tensor
  • sharding
  • group_sharded_parallel
  • save_group_sharded_model
  • spawn
  • split
  • Strategy
  • stream
  • all_gather
  • all_reduce
  • alltoall
  • alltoall_single
  • broadcast
  • reduce
  • reduce_scatter
  • scatter
  • to_static
  • unshard_dtensor
  • utils
  • global_gather
  • global_scatter
  • paddle.distribution
  • Overview
  • AbsTransform
  • AffineTransform
  • Bernoulli
  • Binomial
  • Categorical
  • Cauchy
  • ChainTransform
  • ContinuousBernoulli
  • Dirichlet
  • Distribution
  • Exponential
  • ExponentialFamily
  • ExpTransform
  • Gamma
  • Geometric
  • Gumbel
  • Independent
  • IndependentTransform
  • kl_divergence
  • Laplace
  • LKJCholesky
  • LogNormal
  • Multinomial
  • MultivariateNormal
  • Normal
  • Poisson
  • PowerTransform
  • register_kl
  • ReshapeTransform
  • SigmoidTransform
  • SoftmaxTransform
  • StackTransform
  • StickBreakingTransform
  • StudentT
  • TanhTransform
  • Transform
  • TransformedDistribution
  • Uniform
  • paddle.fft
  • Overview
  • fftfreq
  • fftshift
  • hfft2
  • hfftn
  • ifft2
  • ifftn
  • ifftshift
  • ihfft
  • ihfft2
  • ihfftn
  • irfft
  • irfft2
  • irfftn
  • rfft2
  • rfftfreq
  • rfftn
  • paddle.fluid
  • Overview
  • paddle.geometric
  • Overview
  • reindex_graph
  • reindex_heter_graph
  • sample_neighbors
  • segment_max
  • segment_mean
  • segment_min
  • segment_sum
  • send_u_recv
  • send_ue_recv
  • send_uv
  • weighted_sample_neighbors
  • paddle.hub
  • Overview
  • paddle.incubate
  • add_supported_layer
  • calculate_density
  • decorate
  • prune_model
  • reset_excluded_layers
  • set_excluded_layers
  • autograd
  • Overview
  • disable_prim
  • enable_prim
  • forward_grad
  • Hessian
  • Jacobian
  • autotune
  • set_config
  • graph_khop_sampler
  • graph_reindex
  • graph_sample_neighbors
  • graph_send_recv
  • identity_loss
  • LookAhead
  • ModelAverage
  • functional
  • fused_bias_dropout_residual_layer_norm
  • fused_dropout_add
  • fused_ec_moe
  • fused_feedforward
  • fused_layer_norm
  • fused_linear
  • fused_linear_activation
  • fused_matmul_bias
  • fused_multi_head_attention
  • fused_multi_transformer
  • fused_rms_norm
  • fused_rotary_position_embedding
  • masked_multihead_attention
  • FusedBiasDropoutResidualLayerNorm
  • FusedDropoutAdd
  • FusedEcMoe
  • FusedFeedForward
  • FusedLinear
  • FusedMultiHeadAttention
  • FusedTransformerEncoderLayer
  • optimizer
  • functional
  • minimize_bfgs
  • minimize_lbfgs
  • LBFGS
  • segment_max
  • segment_mean
  • segment_min
  • segment_sum
  • softmax_mask_fuse
  • softmax_mask_fuse_upper_triangle
  • resnet_block
  • resnet_basic_block
  • ResNetBasicBlock
  • paddle.io
  • Overview
  • BatchSampler
  • ChainDataset
  • ComposeDataset
  • ConcatDataset
  • DataLoader
  • Dataset
  • DistributedBatchSampler
  • get_worker_info
  • IterableDataset
  • random_split
  • RandomSampler
  • Sampler
  • SequenceSampler
  • Subset
  • SubsetRandomSampler
  • TensorDataset
  • WeightedRandomSampler
  • paddle.jit
  • Overview
  • enable_to_static
  • ignore_module
  • not_to_static
  • set_code_level
  • set_verbosity
  • to_static
  • TranslatedLayer
  • paddle.linalg
  • Overview
  • cholesky
  • cholesky_inverse
  • cholesky_solve
  • corrcoef
  • eigvals
  • eigvalsh
  • householder_product
  • lstsq
  • lu_unpack
  • matrix_exp
  • matrix_norm
  • matrix_power
  • matrix_rank
  • multi_dot
  • ormqr
  • pca_lowrank
  • slogdet
  • solve
  • svd_lowrank
  • triangular_solve
  • vector_norm
  • paddle.metric
  • Overview
  • Accuracy
  • accuracy
  • Metric
  • Precision
  • Recall
  • paddle.nn
  • Overview
  • AdaptiveAvgPool1D
  • AdaptiveAvgPool2D
  • AdaptiveAvgPool3D
  • AdaptiveLogSoftmaxWithLoss
  • AdaptiveMaxPool1D
  • AdaptiveMaxPool2D
  • AdaptiveMaxPool3D
  • AlphaDropout
  • AvgPool1D
  • AvgPool2D
  • AvgPool3D
  • BatchNorm
  • BatchNorm1D
  • BatchNorm2D
  • BatchNorm3D
  • BCELoss
  • BCEWithLogitsLoss
  • BeamSearchDecoder
  • Bilinear
  • BiRNN
  • ChannelShuffle
  • ClipGradByGlobalNorm
  • ClipGradByNorm
  • ClipGradByValue
  • Conv1D
  • Conv1DTranspose
  • Conv2D
  • Conv2DTranspose
  • Conv3D
  • Conv3DTranspose
  • CosineEmbeddingLoss
  • CosineSimilarity
  • CrossEntropyLoss
  • CTCLoss
  • Dropout
  • Dropout2D
  • Dropout3D
  • dynamic_decode
  • Embedding
  • Flatten
  • FractionalMaxPool2D
  • FractionalMaxPool3D
  • functional
  • adaptive_avg_pool1d
  • adaptive_avg_pool2d
  • adaptive_avg_pool3d
  • adaptive_log_softmax_with_loss
  • adaptive_max_pool1d
  • adaptive_max_pool2d
  • adaptive_max_pool3d
  • affine_grid
  • alpha_dropout
  • avg_pool1d
  • avg_pool2d
  • avg_pool3d
  • batch_norm
  • bilinear
  • binary_cross_entropy
  • binary_cross_entropy_with_logits
  • channel_shuffle
  • class_center_sample
  • conv1d
  • conv1d_transpose
  • conv2d
  • conv2d_transpose
  • conv3d
  • conv3d_transpose
  • cosine_embedding_loss
  • cosine_similarity
  • cross_entropy
  • ctc_loss
  • dice_loss
  • dropout
  • dropout2d
  • dropout3d
  • embedding
  • flash_attention_with_sparse_mask
  • fractional_max_pool2d
  • fractional_max_pool3d
  • gather_tree
  • gaussian_nll_loss
  • grid_sample
  • group_norm
  • gumbel_softmax
  • hardshrink
  • hardsigmoid
  • hardswish
  • hardtanh
  • hardtanh_
  • hinge_embedding_loss
  • hsigmoid_loss
  • instance_norm
  • interpolate
  • kl_div
  • l1_loss
  • label_smooth
  • layer_norm
  • leaky_relu
  • leaky_relu_
  • linear
  • local_response_norm
  • log_loss
  • log_sigmoid
  • log_softmax
  • margin_cross_entropy
  • margin_ranking_loss
  • max_pool1d
  • max_pool2d
  • max_pool3d
  • max_unpool1d
  • max_unpool2d
  • max_unpool3d
  • maxout
  • mse_loss
  • multi_label_soft_margin_loss
  • multi_margin_loss
  • nll_loss
  • normalize
  • npair_loss
  • one_hot
  • pairwise_distance
  • pixel_shuffle
  • pixel_unshuffle
  • poisson_nll_loss
  • prelu
  • relu6
  • relu_
  • rnnt_loss
  • rrelu
  • scaled_dot_product_attention
  • sequence_mask
  • sigmoid
  • sigmoid_focal_loss
  • smooth_l1_loss
  • soft_margin_loss
  • softmax
  • softmax_
  • softmax_with_cross_entropy
  • softplus
  • softshrink
  • softsign
  • sparse_attention
  • square_error_cost
  • swish
  • tanhshrink
  • temporal_shift
  • thresholded_relu
  • thresholded_relu_
  • triplet_margin_loss
  • triplet_margin_with_distance_loss
  • unfold
  • upsample
  • zeropad2d
  • GaussianNLLLoss
  • GroupNorm
  • GRUCell
  • Hardshrink
  • Hardsigmoid
  • Hardswish
  • Hardtanh
  • HingeEmbeddingLoss
  • HSigmoidLoss
  • Identity
  • initializer
  • Assign
  • Bilinear
  • calculate_gain
  • Constant
  • Dirac
  • KaimingNormal
  • KaimingUniform
  • Normal
  • Orthogonal
  • set_global_initializer
  • TruncatedNormal
  • Uniform
  • XavierNormal
  • XavierUniform
  • InstanceNorm1D
  • InstanceNorm2D
  • InstanceNorm3D
  • KLDivLoss
  • L1Loss
  • Layer
  • LayerDict
  • LayerList
  • LayerNorm
  • LeakyReLU
  • Linear
  • LocalResponseNorm
  • LogSigmoid
  • LogSoftmax
  • LSTMCell
  • MarginRankingLoss
  • Maxout
  • MaxPool1D
  • MaxPool2D
  • MaxPool3D
  • MaxUnPool1D
  • MaxUnPool2D
  • MaxUnPool3D
  • MSELoss
  • MultiHeadAttention
  • MultiLabelSoftMarginLoss
  • MultiMarginLoss
  • NLLLoss
  • Pad1D
  • Pad2D
  • Pad3D
  • PairwiseDistance
  • ParameterList
  • PixelShuffle
  • PixelUnshuffle
  • PoissonNLLLoss
  • PReLU
  • quant
  • llm_int8_linear
  • weight_only_linear
  • weight_quantize
  • ReLU6
  • RNNCellBase
  • RNNTLoss
  • RReLU
  • Sequential
  • Sigmoid
  • SimpleRNN
  • SimpleRNNCell
  • SmoothL1Loss
  • SoftMarginLoss
  • Softmax
  • Softmax2D
  • Softplus
  • Softshrink
  • Softsign
  • SpectralNorm
  • Swish
  • SyncBatchNorm
  • Tanhshrink
  • ThresholdedReLU
  • Transformer
  • TransformerDecoder
  • TransformerDecoderLayer
  • TransformerEncoder
  • TransformerEncoderLayer
  • TripletMarginLoss
  • TripletMarginWithDistanceLoss
  • Unflatten
  • Unfold
  • Upsample
  • UpsamplingBilinear2D
  • UpsamplingNearest2D
  • utils
  • clip_grad_norm_
  • clip_grad_value_
  • parameters_to_vector
  • remove_weight_norm
  • spectral_norm
  • vector_to_parameters
  • weight_norm
  • ZeroPad1D
  • ZeroPad2D
  • ZeroPad3D
  • paddle.onnx
  • export
  • paddle.optimizer
  • Overview
  • Adadelta
  • Adagrad
  • Adamax
  • AdamW
  • LBFGS
  • CosineAnnealingDecay
  • CosineAnnealingWarmRestarts
  • CyclicLR
  • ExponentialDecay
  • InverseTimeDecay
  • LambdaDecay
  • LinearLR
  • LinearWarmup
  • LRScheduler
  • MultiplicativeDecay
  • MultiStepDecay
  • NaturalExpDecay
  • NoamDecay
  • OneCycleLR
  • PiecewiseDecay
  • PolynomialDecay
  • ReduceOnPlateau
  • StepDecay
  • Momentum
  • NAdam
  • Optimizer
  • RAdam
  • RMSProp
  • Rprop
  • paddle.profiler
  • Overview
  • export_chrome_tracing
  • export_protobuf
  • load_profiler_result
  • make_scheduler
  • Profiler
  • ProfilerState
  • ProfilerTarget
  • RecordEvent
  • SortedKeys
  • SummaryView
  • paddle.regularizer
  • L1Decay
  • L2Decay
  • paddle.signal
  • Overview
  • istft
  • paddle.sparse
  • Overview
  • addmm
  • asinh
  • atanh
  • coalesce
  • deg2rad
  • divide
  • expm1
  • is_same_shape
  • isnan
  • log1p
  • mask_as
  • masked_matmul
  • matmul
  • multiply
  • BatchNorm
  • Conv2d
  • Conv3D
  • functional
  • attention
  • conv2d
  • conv3d
  • leaky_relu
  • max_pool3d
  • relu6
  • softmax
  • subm_conv2d
  • subm_conv3d
  • LeakyReLU
  • MaxPool3D
  • ReLU6
  • Softmax
  • SubmConv2D
  • SubmConv3D
  • SyncBatchNorm
  • pca_lowrank
  • rad2deg
  • reshape
  • slice
  • sparse_coo_tensor
  • sparse_csr_tensor
  • square
  • subtract
  • transpose
  • paddle.static
  • Overview
  • accuracy
  • append_backward
  • BuildStrategy
  • CompiledProgram
  • cpu_places
  • create_global_var
  • ctr_metric_bundle
  • cuda_places
  • default_main_program
  • default_startup_program
  • deserialize_persistables
  • deserialize_program
  • device_guard
  • Executor
  • ExponentialMovingAverage
  • global_scope
  • gradients
  • InputSpec
  • ipu_shard_guard
  • IpuCompiledProgram
  • IpuStrategy
  • load_from_file
  • load_inference_model
  • load_program_state
  • mlu_places
  • name_scope
  • batch_norm
  • bilinear_tensor_product
  • conv2d
  • conv2d_transpose
  • conv3d
  • conv3d_transpose
  • data_norm
  • deform_conv2d
  • embedding
  • group_norm
  • instance_norm
  • layer_norm
  • multi_box_head
  • prelu
  • row_conv
  • sequence_concat
  • sequence_conv
  • sequence_enumerate
  • sequence_expand
  • sequence_expand_as
  • sequence_first_step
  • sequence_last_step
  • sequence_pad
  • sequence_pool
  • sequence_reshape
  • sequence_reverse
  • sequence_scatter
  • sequence_slice
  • sequence_softmax
  • sequence_unpad
  • sparse_embedding
  • spectral_norm
  • static_pylayer
  • switch_case
  • while_loop
  • normalize_program
  • npu_places
  • Print
  • Program
  • program_guard
  • py_func
  • save_inference_model
  • save_to_file
  • scope_guard
  • serialize_persistables
  • serialize_program
  • set_ipu_shard
  • set_program_state
  • Variable
  • WeightNormParamAttr
  • xpu_places
  • paddle.sysconfig
  • get_include
  • get_lib
  • paddle.text
  • Overview
  • Conll05st
  • Imikolov
  • Movielens
  • UCIHousing
  • viterbi_decode
  • ViterbiDecoder
  • WMT14
  • WMT16
  • paddle.utils
  • Overview
  • cpp_extension
  • CppExtension
  • CUDAExtension
  • get_build_directory
  • setup
  • deprecated
  • dlpack
  • from_dlpack
  • to_dlpack
  • download
  • get_weights_path_from_url
  • require_version
  • run_check
  • try_import
  • unique_name
  • generate
  • guard
  • switch
  • paddle.version
  • Overview
  • cudnn
  • xpu_xccl
  • paddle.vision
  • Overview
  • datasets
  • Cifar10
  • Cifar100
  • DatasetFolder
  • FashionMNIST
  • Flowers
  • ImageFolder
  • MNIST
  • VOC2012
  • get_image_backend
  • image_load
  • models
  • alexnet
  • AlexNet
  • DenseNet
  • densenet121
  • densenet161
  • densenet169
  • densenet201
  • densenet264
  • GoogLeNet
  • googlenet
  • inception_v3
  • InceptionV3
  • LeNet
  • mobilenet_v1
  • mobilenet_v2
  • mobilenet_v3_large
  • mobilenet_v3_small
  • MobileNetV1
  • MobileNetV2
  • MobileNetV3Large
  • MobileNetV3Small
  • ResNet
  • resnet101
  • resnet152
  • resnet18
  • resnet34
  • resnet50
  • resnext101_32x4d
  • resnext101_64x4d
  • resnext152_32x4d
  • resnext152_64x4d
  • resnext50_32x4d
  • resnext50_64x4d
  • shufflenet_v2_swish
  • shufflenet_v2_x0_25
  • shufflenet_v2_x0_33
  • shufflenet_v2_x0_5
  • shufflenet_v2_x1_0
  • shufflenet_v2_x1_5
  • shufflenet_v2_x2_0
  • ShuffleNetV2
  • SqueezeNet
  • squeezenet1_0
  • squeezenet1_1
  • vgg11
  • vgg13
  • vgg16
  • vgg19
  • wide_resnet101_2
  • wide_resnet50_2
  • box_coder
  • decode_jpeg
  • deform_conv2d
  • DeformConv2D
  • distribute_fpn_proposals
  • generate_proposals
  • prior_box
  • psroi_pool
  • PSRoIPool
  • read_file
  • roi_align
  • roi_pool
  • RoIAlign
  • RoIPool
  • yolo_box
  • yolo_loss
  • set_image_backend
  • transforms
  • adjust_brightness
  • adjust_contrast
  • adjust_hue
  • affine
  • BaseTransform
  • BrightnessTransform
  • center_crop
  • CenterCrop
  • ColorJitter
  • Compose
  • ContrastTransform
  • erase
  • Grayscale
  • hflip
  • HueTransform
  • normalize
  • Normalize
  • perspective
  • RandomAffine
  • RandomCrop
  • RandomErasing
  • RandomHorizontalFlip
  • RandomPerspective
  • RandomResizedCrop
  • RandomRotation
  • RandomVerticalFlip
  • resize
  • Resize
  • rotate
  • SaturationTransform
  • to_grayscale
  • to_tensor
  • ToTensor
  • Transpose
  • vflip
  • 代码贡献流程
  • 新增 API 开发&提交流程
  • 贡献前阅读
  • 开发 API Python 端
  • 开发 C++ 算子
  • API 设计和命名规范
  • API 文档书写规范
  • API 单测开发及验收规范
  • 算子性能优化 提交流程
  • 算子性能优化 方法介绍
  • 算子性能优化 验收规范
  • Kernel Primitive API
  • API 介绍
  • API 介绍 - IO
  • API 介绍 - Compute
  • API 介绍 - OpFunc
  • API 示例
  • 示例 - ElementwiseAdd
  • 示例 - Reduce
  • 示例 - Model
  • 算子数据类型扩展 提交流程
  • 算子数据类型扩展 验收规范
  • 低精度算子开发贡献指南
  • 低精度算子支持开发规范
  • 低精度算子单测开发规范
  • 曙光开发指南
  • 曙光智算平台-Paddle 源码编译和单测执行
  • Paddle 适配 C86 加速卡详解
  • Paddle 框架下 ROCm(HIP)算子单测修复指导
  • 硬件接入飞桨后端指南
  • 硬件接入飞桨后端方案介绍
  • 训练硬件 Custom Device 接入方案介绍
  • 自定义 Runtime
  • Device 接口
  • Memory 接口
  • Stream 接口
  • Event 接口
  • 集合通讯接口
  • Profiler 接口
  • 自定义 Kernel
  • Kernel 函数声明
  • Kernel 实现接口
  • Context API
  • Tensor API
  • Exception API
  • Kernel 注册接口
  • 新硬件接入示例
  • 文档贡献指南
  • 规范和参考信息
  • 报错信息文案书写规范
  • 代码风格检查指南
  • Paddle CI 测试详解
  • Python 文档示例代码书写规范
  • Paddle 中的类型提示与 Q&A
  • 常见问题与解答
  • 2.0 升级常见问题
  • 安装常见问题
  • 数据及其加载常见问题
  • 组网、训练、评估常见问题
  • 模型保存常见问题
  • 参数调整常见问题
  • 分布式训练常见问题
  • 其他常见问题
  • 3.0 Beta Release Note
  • train_batch(inputs, labels=None, update=True)
  • eval_batch(inputs, labels=None)
  • predict_batch(inputs)
  • save(path, training=True)
  • load(path, skip_mismatch=False, reset_optimizer=False)
  • parameters(*args, **kwargs)
  • prepare(optimizer=None, loss=None, metrics=None, amp_configs=None)
  • fit(train_data=None, eval_data=None, batch_size=1, epochs=1, eval_freq=1, log_freq=10, save_dir=None, save_freq=1, verbose=2, drop_last=False, shuffle=True, num_workers=0, callbacks=None, accumulate_grad_batches=1, num_iters=None)
  • evaluate(eval_data, batch_size=1, log_freq=10, verbose=2, num_workers=0, callbacks=None, num_iters=None)
  • predict(test_data, batch_size=1, num_workers=0, stack_outputs=False, verbose=1, callbacks=None)
  • summary(input_size=None, dtype=None)
  • Model 对象是一个具备训练、测试、推理的神经网络。该对象同时支持静态图和动态图模式,飞桨框架默认为动态图模式,通过 paddle.enable_static() 来切换到静态图模式。需要注意的是,需要在实例化 Model 对象之前完成切换。

    在 GPU 上训练时,高层 API 支持自动混合精度(AMP)训练,并且在静态图下使用 Adam、AdamW、Momentum 优化器时还支持纯 float16 的训练。在使用纯 float16 训练之前,优化器初始化时 multi_precision 参数可以设置为 True,这样可以避免性能变差或是收敛变慢的问题。并且,在组网中可以使用 paddle.static.amp.fp16_guard 来限定使用纯 float16 训练的范围,否则需要把 use_fp16_guard 手动设置为 False 以开启全局纯 float16 训练。使用纯 float16 训练前,可能需要手动将 dtype 为 float32 的输入转成 float16 的输入。然而,使用自动混合精度训练(AMP)时,不支持限定混合精度训练的范围。

  • network (paddle.nn.Layer) - 是 paddle.nn.Layer 的一个实例。

  • inputs (InputSpec|list|tuple|dict|None,可选) - network 的输入,可以是 InputSpec 的实例,或者是一个 InputSpec list ,或者是格式为 {name: InputSpec} dict ,或者为 None 。默认值为 None

  • labels (InputSpec|list|tuple|None,可选) - network 的标签,可以是 InputSpec 的实例,或者是一个 InputSpec list ,或者为 None 。 默认值为 None

  • >>> import paddle.nn as nn >>> import paddle.vision.transforms as T >>> from paddle.static import InputSpec >>> device = paddle . set_device ( 'cpu' ) # or 'gpu' >>> net = nn . Sequential ( ... nn . Flatten ( 1 ), ... nn . Linear ( 784 , 200 ), ... nn . Tanh (), ... nn . Linear ( 200 , 10 )) >>> # inputs and labels are not required for dynamic graph. >>> input = InputSpec ([ None , 784 ], 'float32' , 'x' ) >>> label = InputSpec ([ None , 1 ], 'int64' , 'label' ) >>> model = paddle . Model ( net , input , label ) >>> optim = paddle . optimizer . SGD ( learning_rate = 1e-3 , ... parameters = model . parameters ()) >>> model . prepare ( optim , ... paddle . nn . CrossEntropyLoss (), ... paddle . metric . Accuracy ()) >>> transform = T . Compose ([ ... T . Transpose (), ... T . Normalize ([ 127.5 ], [ 127.5 ]) >>> data = paddle . vision . datasets . MNIST ( mode = 'train' , transform = transform ) >>> model . fit ( data , epochs = 2 , batch_size = 32 , verbose = 1 ) >>> paddle . device . set_device ( 'gpu' ) >>> import paddle.nn as nn >>> import paddle.vision.transforms as T >>> def run_example_code (): ... device = paddle . set_device ( 'gpu' ) ... net = nn . Sequential ( nn . Flatten ( 1 ), nn . Linear ( 784 , 200 ), nn . Tanh (), ... nn . Linear ( 200 , 10 )) ... model = paddle . Model ( net ) ... optim = paddle . optimizer . SGD ( learning_rate = 1e-3 , parameters = model . parameters ()) ... amp_configs = { ... "level" : "O1" , ... "custom_white_list" : { 'conv2d' }, ... "use_dynamic_loss_scaling" : True ... } ... model . prepare ( optim , ... paddle . nn . CrossEntropyLoss (), ... paddle . metric . Accuracy (), ... amp_configs = amp_configs ) ... transform = T . Compose ([ T . Transpose (), T . Normalize ([ 127.5 ], [ 127.5 ])]) ... data = paddle . vision . datasets . MNIST ( mode = 'train' , transform = transform ) ... model . fit ( data , epochs = 2 , batch_size = 32 , verbose = 1 ) >>> # mixed precision training is only supported on GPU now. >>> if paddle . is_compiled_with_cuda (): ... run_example_code ()
  • inputs (numpy.ndarray|Tensor|list) - 一批次的输入数据。它可以是一个 numpy 数组或 paddle.Tensor,或者是它们的列表(在模型具有多输入的情况下)。

  • labels (numpy.ndarray|Tensor|list,可选) - 一批次的标签。它可以是一个 numpy 数组或 paddle.Tensor,或者是它们的列表(在模型具有多输入的情况下)。如果无标签,请设置为 None。默认值:None。

  • update (bool,可选) - 是否在 loss.backward() 计算完成后更新参数,将它设置为 False 可以累积梯度。默认值:True。

  • 如果没有定义评估函数,则返回包含了训练损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。

    >>> import paddle
    >>> import paddle.nn as nn
    >>> from paddle.static import InputSpec
    >>> paddle.seed(2023)
    >>> device = paddle.set_device('cpu') # or 'gpu'
    >>> net = nn.Sequential(
    ...     nn.Linear(784, 200),
    ...     nn.Tanh(),
    ...     nn.Linear(200, 10))
    >>> input = InputSpec([None, 784], 'float32', 'x')
    >>> label = InputSpec([None, 1], 'int64', 'label')
    >>> model = paddle.Model(net, input, label)
    >>> optim = paddle.optimizer.SGD(learning_rate=1e-3,
    ...     parameters=model.parameters())
    >>> model.prepare(optim, paddle.nn.CrossEntropyLoss())
    >>> data = paddle.rand((4, 784), dtype="float32")
    >>> label = paddle.randint(0, 10, (4, 1), dtype="int64")
    >>> loss = model.train_batch([data], [label])
    >>> print(loss)
    [array(3.0039132, dtype=float32)]
                
  • inputs (numpy.ndarray|Tensor|list) - 一批次的输入数据。它可以是一个 numpy 数组或 paddle.Tensor,或者是它们的列表(在模型具有多输入的情况下)。

  • labels (numpy.ndarray|Tensor|list,可选) - 一批次的标签。它可以是一个 numpy 数组或 paddle.Tensor,或者是它们的列表(在模型具有多输入的情况下)。如果无标签,请设置为 None。默认值:None。

  • list,如果没有定义评估函数,则返回包含了预测损失函数的值的列表;如果定义了评估函数,则返回一个元组(损失函数的列表,评估指标的列表)。

    >>> import paddle
    >>> import paddle.nn as nn
    >>> from paddle.static import InputSpec
    >>> paddle.seed(2023)
    >>> device = paddle.set_device('cpu') # or 'gpu'
    >>> net = nn.Sequential(
    ...     nn.Linear(784, 200),
    ...     nn.Tanh(),
    ...     nn.Linear(200, 10))
    >>> input = InputSpec([None, 784], 'float32', 'x')
    >>> label = InputSpec([None, 1], 'int64', 'label')
    >>> model = paddle.Model(net, input, label)
    >>> optim = paddle.optimizer.SGD(learning_rate=1e-3,
    ...     parameters=model.parameters())
    >>> model.prepare(optim,
    ...               paddle.nn.CrossEntropyLoss(),
    ...               metrics=paddle.metric.Accuracy())
    >>> data = paddle.rand((4, 784), dtype="float32")
    >>> label = paddle.randint(0, 10, (4, 1), dtype="int64")
    >>> loss, acc = model.eval_batch([data], [label])
    >>> print(loss, acc)
    [array(3.0039132, dtype=float32)] [0.0]
    >>> device = paddle.set_device('cpu') # or 'gpu'
    >>> input = InputSpec([None, 784], 'float32', 'x')
    >>> label = InputSpec([None, 1], 'int64', 'label')
    >>> net = nn.Sequential(
    ...     nn.Linear(784, 200),
    ...     nn.Tanh(),
    ...     nn.Linear(200, 10),
    ...     nn.Softmax())
    >>> model = paddle.Model(net, input, label)
    >>> model.prepare()
    >>> data = paddle.rand((1, 784), dtype="float32")
    >>> out = model.predict_batch([data])
    >>> print(out)
    [array([[0.10844935, 0.04650883, 0.11790176, 0.04962315, 0.10899059,
             0.08197589, 0.03125402, 0.03232312, 0.3786293 , 0.04434395]],
          dtype=float32)]
             

    save(path, training=True)

    将模型的参数和训练过程中优化器的信息保存到指定的路径,以及推理所需的参数与文件。如果 training=True,所有的模型参数都会保存到一个后缀为 .pdparams 的文件中。 所有的优化器信息和相关参数,比如 Adam 优化器中的 beta1beta2momentum 等,都会被保存到后缀为 .pdopt。如果优化器比如 SGD 没有参数,则该不会产生该文件。如果 training=False,则不会保存上述说的文件。只会保存推理需要的参数文件和模型文件。

  • path (str) - 保存的文件名前缀。格式如 dirname/file_prefix 或者 file_prefix

  • training (bool,可选) - 是否保存训练的状态,包括模型参数和优化器参数等。如果为 False,则只保存推理所需的参数与文件。默认值:True。

  • >>> import paddle
    >>> import paddle.nn as nn
    >>> import paddle.vision.transforms as T
    >>> from paddle.static import InputSpec
    >>> from paddle.vision.datasets import MNIST
    >>> dynamic = True  # False
    >>> # If use static graph, do not set
    >>> if not dynamic:
    ...     paddle.enable_static()
    >>> transform = T.Compose([T.Transpose(),
    ...                        T.Normalize([127.5], [127.5])])
    >>> train_dataset = MNIST(mode='train', transform=transform)
    >>> train_loader = paddle.io.DataLoader(train_dataset, batch_size=64)
    >>> val_dataset = MNIST(mode='test', transform=transform)
    >>> val_loader = paddle.io.DataLoader(val_dataset, batch_size=64)
    >>> input = InputSpec([None, 1, 28, 28], 'float32', 'image')
    >>> label = InputSpec([None, 1], 'int64', 'label')
    >>> model = paddle.Model(paddle.vision.models.LeNet(), input, label)
    >>> optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters())
    >>> model.prepare(optim, paddle.nn.CrossEntropyLoss(), paddle.metric.Accuracy(topk=(1, 2)))
    >>> model.fit(train_loader, val_loader, epochs=2, verbose=0)
    >>> model.save('checkpoint/test')  # save for training
    >>> model.save('inference_model', False)  # save for inference
             

    load(path, skip_mismatch=False, reset_optimizer=False)

    从指定的文件中载入模型参数和优化器参数,如果不想恢复优化器参数信息,优化器信息文件可以不存在。需要注意的是:参数名称的检索是根据保存模型时结构化的名字,当想要载入参数进行迁移学习时要保证预训练模型和当前的模型的参数有一样结构化的名字。

  • path (str) - 保存参数或优化器信息的文件前缀。格式如 path.pdparams 或者 path.pdopt ,后者是非必要的,如果不想恢复优化器信息。

  • skip_mismatch (bool,可选) - 是否需要跳过保存的模型文件中形状或名称不匹配的参数,设置为 False 时,当遇到不匹配的参数会抛出一个错误。默认值:False。

  • reset_optimizer (bool,可选) - 设置为 True 时,会忽略提供的优化器信息文件。否则会载入提供的优化器信息。默认值:False。

  • >>> import paddle
    >>> import paddle.nn as nn
    >>> from paddle.static import InputSpec
    >>> device = paddle.set_device('cpu')
    >>> input = InputSpec([None, 784], 'float32', 'x')
    >>> model = paddle.Model(nn.Sequential(
    ...     nn.Linear(784, 200),
    ...     nn.Tanh(),
    ...     nn.Linear(200, 10),
    ...     nn.Softmax()), input)
    >>> model.save('checkpoint/test')
    >>> model.load('checkpoint/test')
    >>> from paddle.static import InputSpec
    >>> paddle.seed(2023)
    >>> input = InputSpec([None, 784], 'float32', 'x')
    >>> model = paddle.Model(nn.Sequential(
    ...     nn.Linear(784, 200),
    ...     nn.Tanh(),
    ...     nn.Linear(200, 10)), input)
    >>> params = model.parameters()
    >>> print(params)
    [Parameter containing:
    Tensor(shape=[784, 200], dtype=float32, place=Place(cpu), stop_gradient=False,
    [[ 0.05713400,  0.00314646, -0.03754271, ..., -0.02529256,
       0.04872842, -0.06670858],
     [ 0.06268418,  0.06550254, -0.02103353, ...,  0.06395906,
       0.05509177, -0.06355451]]), Parameter containing:
    Tensor(shape=[200], dtype=float32, place=Place(cpu), stop_gradient=False,
    [0., 0., 0., ..., 0., 0.]), Parameter containing:
    Tensor(shape=[200, 10], dtype=float32, place=Place(cpu), stop_gradient=False,
    [[ 0.12933084,  0.07726504,  0.05336720, ...,  0.10865459,
       0.06605886,  0.13684085],
     [-0.10171061, -0.01649965, -0.13420501, ...,  0.11190581,
      -0.12700224,  0.02916957]]), Parameter containing:
    Tensor(shape=[10], dtype=float32, place=Place(cpu), stop_gradient=False,
    [0., 0., 0., 0., 0., 0., 0., 0., 0., 0.])]
             

    prepare(optimizer=None, loss=None, metrics=None, amp_configs=None)

    配置模型所需的部件,比如优化器、损失函数和评价指标。

  • optimizer (OOptimizer|None,可选) - 当训练模型的,该参数必须被设定。当评估或测试的时候,该参数可以不设定。默认值:None。

  • loss (Loss|Callable|None,可选) - 当训练模型的,该参数必须被设定。默认值:None。

  • metrics (Metric|list[Metric]|None,可选) - 当该参数被设定时,所有给定的评估方法会在训练和测试时被运行,并返回对应的指标。默认值:None。

  • amp_configs (str|dict|None,可选) - 混合精度训练的配置,通常是个 dict,也可以是 str。当使用自动混合精度训练或者纯 float16 训练时,amp_configs 的 key level 需要被设置为 O1 或者 O2,float32 训练时则默认为 O0。除了 level ,还可以传入更多的和混合精度 API 一致的参数,例如:init_loss_scalingincr_ratiodecr_ratioincr_every_n_stepsdecr_every_n_nan_or_infuse_dynamic_loss_scalingcustom_white_listcustom_black_list ,在静态图下还支持传入 custom_black_varnamesuse_fp16_guard 。详细使用方法可以参考参考混合精度 API 的文档 auto_castGradScaler 。为了方便起见,当不设置其他的配置参数时,也可以直接传入 'O1''O2' 。在使用 float32 训练时,该参数可以为 None。默认值:None。

  • fit(train_data=None, eval_data=None, batch_size=1, epochs=1, eval_freq=1, log_freq=10, save_dir=None, save_freq=1, verbose=2, drop_last=False, shuffle=True, num_workers=0, callbacks=None, accumulate_grad_batches=1, num_iters=None)

    训练模型。当 eval_data 给定时,会在 eval_freqepoch 后进行一次评估。

  • train_data (Dataset|DataLoader,可选) - 一个可迭代的数据源,推荐给定一个 paddle paddle.io.Datasetpaddle.io.Dataloader 的实例。默认值:None。

  • eval_data (Dataset|DataLoader,可选) - 一个可迭代的数据源,推荐给定一个 paddle paddle.io.Datasetpaddle.io.Dataloader 的实例。当给定时,会在每个 epoch 后都会进行评估。默认值:None。

  • batch_size (int,可选) - 训练数据或评估数据的批大小,当 train_dataeval_dataDataLoader 的实例时,该参数会被忽略。默认值:1。

  • epochs (int,可选) - 训练的轮数。默认值:1。

  • eval_freq (int,可选) - 评估的频率,多少个 epoch 评估一次。默认值:1。

  • log_freq (int,可选) - 日志打印的频率,多少个 step 打印一次日志。默认值:10。

  • save_dir (str|None,可选) - 保存模型的文件夹,如果不设定,将不保存模型。默认值:None。

  • save_freq (int,可选) - 保存模型的频率,多少个 epoch 保存一次模型。默认值:1。

  • verbose (int,可选) - 可视化的模型,必须为 0,1,2。当设定为 0 时,不打印日志,设定为 1 时,使用进度条的方式打印日志,设定为 2 时,一行一行地打印日志。默认值:2。

  • drop_last (bool,可选) - 是否丢弃训练数据中最后几个不足设定的批次大小的数据。默认值:False。

  • shuffle (bool,可选) - 是否对训练数据进行洗牌。当 train_dataDataLoader 的实例时,该参数会被忽略。默认值:True。

  • num_workers (int,可选) - 启动子进程用于读取数据的数量。当 train_dataeval_data 都为 DataLoader 的实例时,该参数会被忽略。默认值:0。

  • callbacks (Callback|list[Callback]|None,可选) - Callback 的一个实例或实例列表。该参数不给定时,默认会插入 ProgBarLoggerModelCheckpoint 这两个实例。默认值:None。

  • accumulate_grad_batches (int,可选) - 训练过程中,在优化器更新之前累积梯度的批次数。通过改变该参数可以模拟大的 batch_size。默认值:1。

  • num_iters (int,可选) - 训练模型过程中的迭代次数。如果设置为 None,则根据参数 epochs 来训练模型,否则训练模型 num_iters 次。默认值:None。

  • 使用 Dataset 训练,并设置 batch_size 的例子。

  •  >>> import paddle
     >>> import paddle.vision.transforms as T
     >>> from paddle.vision.datasets import MNIST
     >>> from paddle.static import InputSpec
     >>> dynamic = True
     >>> if not dynamic:
     ...     paddle.enable_static()
     >>> transform = T.Compose([T.Transpose(),
     ...                        T.Normalize([127.5], [127.5])])
     >>> train_dataset = MNIST(mode='train', transform=transform)
     >>> val_dataset = MNIST(mode='test', transform=transform)
     >>> input = InputSpec([None, 1, 28, 28], 'float32', 'image')
     >>> label = InputSpec([None, 1], 'int64', 'label')
     >>> model = paddle.Model(
     ...     paddle.vision.models.LeNet(),
     ...     input, label)
     >>> optim = paddle.optimizer.Adam(
     ...     learning_rate=0.001, parameters=model.parameters())
     >>> model.prepare(
     ...     optim,
     ...     paddle.nn.CrossEntropyLoss(),
     ...     paddle.metric.Accuracy(topk=(1, 2)))
     >>> model.fit(train_dataset,
     ...             val_dataset,
     ...             epochs=2,
     ...             batch_size=64,
     ...             save_dir='mnist_checkpoint')
                 
     >>> import paddle
     >>> import paddle.vision.transforms as T
     >>> from paddle.vision.datasets import MNIST
     >>> from paddle.static import InputSpec
     >>> dynamic = True
     >>> if not dynamic:
     ...     paddle.enable_static()
     >>> transform = T.Compose([T.Transpose(),
     ...                        T.Normalize([127.5], [127.5])])
     >>> train_dataset = MNIST(mode='train', transform=transform)
     >>> train_loader = paddle.io.DataLoader(train_dataset,
     ...     batch_size=64)
     >>> val_dataset = MNIST(mode='test', transform=transform)
     >>> val_loader = paddle.io.DataLoader(val_dataset,
     ...     batch_size=64)
     >>> input = InputSpec([None, 1, 28, 28], 'float32', 'image')
     >>> label = InputSpec([None, 1], 'int64', 'label')
     >>> model = paddle.Model(
     ...     paddle.vision.models.LeNet(), input, label)
     >>> optim = paddle.optimizer.Adam(
     ...     learning_rate=0.001, parameters=model.parameters())
     >>> model.prepare(
     ...     optim,
     ...     paddle.nn.CrossEntropyLoss(),
     ...     paddle.metric.Accuracy(topk=(1, 2)))
     >>> model.fit(train_loader,
     ...             val_loader,
     ...             epochs=2,
     ...             save_dir='mnist_checkpoint')
             

    evaluate(eval_data, batch_size=1, log_freq=10, verbose=2, num_workers=0, callbacks=None, num_iters=None)

    在输入数据上,评估模型的损失函数值和评估指标。

  • eval_data (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 paddle.io.Datasetpaddle.io.Dataloader 的实例。默认值:None。

  • batch_size (int,可选) - 训练数据或评估数据的批大小,当 eval_dataDataLoader 的实例时,该参数会被忽略。默认值:1。

  • log_freq (int,可选) - 日志打印的频率,多少个 step 打印一次日志。默认值:10。

  • verbose (int,可选) - 可视化的模型,必须为 0,1,2。当设定为 0 时,不打印日志,设定为 1 时,使用进度条的方式打印日志,设定为 2 时,一行一行地打印日志。默认值:2。

  • num_workers (int,可选) - 启动子进程用于读取数据的数量。当 eval_dataDataLoader 的实例时,该参数会被忽略。默认值:0。

  • callbacks (Callback|list[Callback]|None,可选) - Callback 的一个实例或实例列表。该参数不给定时,默认会插入 ProgBarLoggerModelCheckpoint 这两个实例。默认值:None。

  • num_iters (int,可选) - 训练模型过程中的迭代次数。如果设置为 None,则根据参数 epochs 来训练模型,否则训练模型 num_iters 次。默认值:None。

  • dict, key 是 prepare 时 Metric 的的名称,value 是该 Metric 的值。

    >>> import paddle
    >>> import paddle.vision.transforms as T
    >>> from paddle.static import InputSpec
    >>> # declarative mode
    >>> transform = T.Compose([T.Transpose(),
    ...                        T.Normalize([127.5], [127.5])])
    >>> val_dataset = paddle.vision.datasets.MNIST(mode='test', transform=transform)
    >>> input = InputSpec([-1, 1, 28, 28], 'float32', 'image')
    >>> label = InputSpec([None, 1], 'int64', 'label')
    >>> model = paddle.Model(paddle.vision.models.LeNet(), input, label)
    >>> model.prepare(metrics=paddle.metric.Accuracy())
    >>> result = model.evaluate(val_dataset, batch_size=64)
    >>> print(result)
    {'acc': 0.0699}
             

    predict(test_data, batch_size=1, num_workers=0, stack_outputs=False, verbose=1, callbacks=None)

    在输入数据上,预测模型的输出。

  • test_data (Dataset|DataLoader) - 一个可迭代的数据源,推荐给定一个 paddle.io.Datasetpaddle.io.Dataloader 的实例。默认值:None。

  • batch_size (int,可选) - 训练数据或评估数据的批大小,当 test_dataDataLoader 的实例时,该参数会被忽略。默认值:1。

  • num_workers (int,可选) - 启动子进程用于读取数据的数量。当 test_dataDataLoader 的实例时,该参数会被忽略。默认值:0。

  • stack_outputs (bool,可选) - 是否将输出进行堆叠。比如对于单个样本输出形状为 [X, Y]test_data 包含 N 个样本的情况,如果 stack_outputs 设置为 True,那么输出的形状将会是 [N, X, Y],如果 stack_outputs 设置为 False,那么输出的形状将会是 [[X, Y], [X, Y], ..., [X, Y]]。将 stack_outputs 设置为 False 适用于输出为 LoDTensor 的情况,如果输出不包含 LoDTensor,建议将其设置为 True。默认值:False。

  • verbose (int,可选) - 可视化的模型,必须为 0,1,2。当设定为 0 时,不打印日志,设定为 1 时,使用进度条的方式打印日志,设定为 2 时,一行一行地打印日志。默认值:1。

  • callbacks (Callback|list[Callback]|None,可选) - Callback 的一个实例或实例列表。默认值:None。

  • 模型的输出。

    >>> import numpy as np
    >>> import paddle
    >>> from paddle.static import InputSpec
    >>> class MnistDataset(paddle.vision.datasets.MNIST):
    ...     def __init__(self, mode, return_label=True):
    ...         super().__init__(mode=mode)
    ...         self.return_label = return_label
    ...     def __getitem__(self, idx):
    ...         img = np.reshape(self.images[idx], [1, 28, 28])
    ...         if self.return_label:
    ...             return img, np.array(self.labels[idx]).astype('int64')
    ...         return img
    ...     def __len__(self):
    ...         return len(self.images)
    >>> test_dataset = MnistDataset(mode='test', return_label=False)
    >>> # imperative mode
    >>> input = InputSpec([-1, 1, 28, 28], 'float32', 'image')
    >>> model = paddle.Model(paddle.vision.models.LeNet(), input)
    >>> model.prepare()
    >>> result = model.predict(test_dataset, batch_size=64)
    >>> print(len(result[0]), result[0][0].shape)
    157 (64, 10)
    >>> # declarative mode
    >>> device = paddle.set_device('cpu')
    >>> paddle.enable_static()
    >>> input = InputSpec([-1, 1, 28, 28], 'float32', 'image')
    >>> model = paddle.Model(paddle.vision.models.LeNet(), input)
    >>> model.prepare()
    >>> result = model.predict(test_dataset, batch_size=64)
    >>> print(len(result[0]), result[0][0].shape)
    157 (64, 10)
                
  • input_size (tuple|InputSpec|list[tuple|InputSpec],可选) - 输入 Tensor 的大小。如果网络只有一个输入,那么该值需要设定为 tuple 或 InputSpec。如果模型有多个输入。那么该值需要设定为 list[tuple|InputSpec],包含每个输入的 shape 。如果该值没有设置,会将 self._inputs 作为输入。默认值:None。

  • dtype (str,可选) - 输入 Tensor 的数据类型,如果没有给定,默认使用 float32 类型。默认值:None。

  • 字典:包含网络全部参数的大小和全部可训练参数的大小。

    >>> import paddle
    >>> from paddle.static import InputSpec
    >>> input = InputSpec([None, 1, 28, 28], 'float32', 'image')
    >>> label = InputSpec([None, 1], 'int64', 'label')
    >>> model = paddle.Model(paddle.vision.models.LeNet(), input, label)
    >>> optim = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters())
    >>> model.prepare(optim, paddle.nn.CrossEntropyLoss())
    >>> params_info = model.summary()
    >>> print(params_info)
    ---------------------------------------------------------------------------
    Layer (type)       Input Shape          Output Shape         Param #
    ===========================================================================
      Conv2D-1       [[1, 1, 28, 28]]      [1, 6, 28, 28]          60
        ReLU-1        [[1, 6, 28, 28]]      [1, 6, 28, 28]           0
      MaxPool2D-1     [[1, 6, 28, 28]]      [1, 6, 14, 14]           0
      Conv2D-2       [[1, 6, 14, 14]]     [1, 16, 10, 10]         2,416
        ReLU-2       [[1, 16, 10, 10]]     [1, 16, 10, 10]           0
      MaxPool2D-2    [[1, 16, 10, 10]]      [1, 16, 5, 5]            0
      Linear-1          [[1, 400]]            [1, 120]           48,120
      Linear-2          [[1, 120]]            [1, 84]            10,164
      Linear-3          [[1, 84]]             [1, 10]              850
    ===========================================================================
    Total params: 61,610
    Trainable params: 61,610
    Non-trainable params: 0
    ---------------------------------------------------------------------------
    Input size (MB): 0.00
    Forward/backward pass size (MB): 0.11
    Params size (MB): 0.24
    Estimated Total Size (MB): 0.35
    ---------------------------------------------------------------------------
    {'total_params': 61610, 'trainable_params': 61610}