resume: false device: cuda use_amp: false seed: 100000 dataset_repo_id: hellorobotinc/kitchen_cabinet_diagonal video_backend: pyav training: offline_steps: 200000 online_steps: 0 online_steps_between_rollouts: 1 online_sampling_ratio: 0.5 online_env_seed: ??? eval_freq: -1 log_freq: 250 save_checkpoint: true save_freq: 10000 num_workers: 16 batch_size: 64 image_transforms: enable: true max_num_transforms: 3 random_order: false brightness: weight: 1 min_max: - 0.8 - 1.2 contrast: weight: 1 min_max: - 0.8 - 1.2 saturation: weight: 1 min_max: - 0.5 - 1.5 hue: weight: 1 min_max: - -0.05 - 0.05 sharpness: weight: 1 min_max: - 0.8 - 1.2 grad_clip_norm: 10 lr: 0.0001 lr_scheduler: cosine lr_warmup_steps: 500 adam_betas: - 0.95 - 0.999 adam_eps: 1.0e-08 adam_weight_decay: 1.0e-06 delta_timestamps: observation.images.gripper: - -0.16666666666666666 - 0.0 observation.images.head: - -0.16666666666666666 - 0.0 observation.state: - -0.16666666666666666 - 0.0 action: - -0.16666666666666666 - 0.0 - 0.16666666666666666 - 0.3333333333333333 - 0.5 - 0.6666666666666666 - 0.8333333333333334 - 1.0 - 1.1666666666666667 - 1.3333333333333333 - 1.5 - 1.6666666666666667 - 1.8333333333333333 - 2.0 - 2.1666666666666665 - 2.3333333333333335 drop_n_last_frames: 7 eval: n_episodes: 50 batch_size: 50 use_async_envs: false wandb: enable: true disable_artifact: true project: diffusion-kitchen-diagonal notes: no depth fps: 6 env: name: stretch_real task: stretch_baseX state_dim: 9 action_dim: 9 fps: ${fps} episode_length: 400 gym: fps: ${fps} repo_version: main override_dataset_stats: observation.images.gripper: mean: - - - 0.485 - - - 0.456 - - - 0.406 std: - - - 0.229 - - - 0.224 - - - 0.225 observation.images.head: mean: - - - 0.485 - - - 0.456 - - - 0.406 std: - - - 0.229 - - - 0.224 - - - 0.225 policy: name: diffusion n_obs_steps: 2 horizon: 16 n_action_steps: 8 input_shapes: observation.images.gripper: - 3 - 320 - 320 observation.images.head: - 3 - 320 - 320 observation.state: - ${env.state_dim} output_shapes: action: - ${env.action_dim} input_normalization_modes: observation.images.gripper: mean_std observation.images.head: mean_std observation.state: min_max output_normalization_modes: action: min_max vision_backbone: resnet18 crop_shape: - 320 - 320 crop_is_random: false pretrained_backbone_weights: null use_group_norm: true spatial_softmax_num_keypoints: 32 down_dims: - 512 - 1024 - 2048 kernel_size: 5 n_groups: 8 diffusion_step_embed_dim: 128 use_film_scale_modulation: true noise_scheduler_type: DDPM num_train_timesteps: 100 beta_schedule: squaredcos_cap_v2 beta_start: 0.0001 beta_end: 0.02 prediction_type: epsilon clip_sample: true clip_sample_range: 1.0 num_inference_steps: 100 do_mask_loss_for_padding: false