0 소개
현실에서는 종종 데이터 세트에서 발생하는 실제 과정은 이미 데이터 세트로 패키지 mnist 유사 아니라, 사진의 형태로 폴더는이 경우가있다,있다 (예 load_data () 함수) 상관 관계 기능하지 직접 부하, 그래서 여기에 나는 데이터 세트를 구축하는 두 가지 방법을 제안합니다.
방법 1
사용에 관한 데이터를 사용하는 경우) (.flow_from_directory,이 기능은 향상 될 수있다 :
train_datagen = ImageDataGenerator ( 재조정 = 1 / 255 , shear_range = 0.2 , zoom_range = 0.2 , horizontal_flip = 참) test_datagen = ImageDataGenerator (재조정 = 1 / 255 ) train_generator = train_datagen.flow_from_directory ( ' 데이터 / 열차 ' , target_size가 = (150 150 ) BATCH_SIZE = 32 , class_mode = ' 바이너리 ' ) validation_generator= test_datagen.flow_from_directory ( ' 데이터 / 검증 ' , target_size가 = (150, 150 ), BATCH_SIZE = 32 , class_mode = ' 바이너리 ' ) model.fit_generator ( train_generator, steps_per_epoch = 2,000 , 에포크 = 50 , validation_data = validation_generator, validation_steps = 800 )
ImageDataGenerator ()는 보통 데이터 세트로 짧은 시간 내에 이미지를 향상시킬
keras.preprocessing.image.ImageDataGenerator은 (는 featurewise_center = 거짓, samplewise_center = 거짓, featurewise_std_normalization = 거짓, samplewise_std_normalization = 거짓, zca_whitening = 거짓, zca_epsilon = 1E-6 , rotation_range = 0, width_shift_range가 = 0, height_shift_range가 = 0, shear_range = 0, zoom_range = 0, channel_shift_range = 0, fill_mode= ' 가까운 ' , cval = 0, horizontal_flip = 거짓, vertical_flip = 거짓, 재조정 = 없음, preprocessing_function = 없음, data_format = K.image_data_format ())
관련 매개 변수의 해석 :
강화하지 않으면, 함수는 비어 있습니다. 배치의 이미지 데이터를 생성하기 위해 실시간 데이터를 업그레이드합니다. 지정된 횟수 지금까지 획기적인 때까지이 기능은 훈련 기간 동안 무제한 데이터를 생성합니다.
매개 변수
-
featurewise_center : 기능 수행 부울 값, 중심 (평균 0)에 대한 입력 데이터 세트
-
samplewise_center : 부울 평균 각 입력 데이터 샘플 0
-
featurewise_std_normalization : 부울 값, 입력 데이터 세트로 나눈 표준 편차는 표준화 기능을 수행 완료
-
samplewise_std_normalization : 자신의 표준 편차로 나눈 각각의 샘플 입력 부울 값
-
zca_whitening : 부울 값, ZCA 미백 입력 데이터에 적용
-
zca_epsilon : eposilon ZCA 기본 1E-6를 사용하여
-
rotation_range : 정수, 랜덤 데이터는 화상 회전 각도를 향상시킬
-
width_shift_range : 플로트, 화상 폭의 일정 비율이, 진폭 데이터는 수평 오프셋 화상을 향상시키기
-
height_shift_range : 플로트, 상 높이의 특정 비율은, 진폭 데이터는 수직 오프셋 화상을 향상시키기
-
shear_range : 플로트 전단 강도 (전단 변형 각 반)
-
zoom_range : 플로트 또는 모양
[lower,upper]
랜덤 진폭 스케일링 목록, 부동 소수점 수 있으면 동등[lower,upper] = [1 - zoom_range, 1+zoom_range]
-
진폭 임의 채널 오프셋 플로트 : channel_shift_range를
-
fill_mode :; '상수', '근처의'는, 하나의 '반영'또는 경계점 이후 '랩', 변환 처리에있어서, 소정의 파라미터에 따라 때
-
cval : 부동 소수점 또는 정수,
fill_mode=constant
시간, 필러의 경계를 넘어 점의 값을 지정하고 싶습니다 -
horizontal_flip : 부울 임의 플립 수평
-
vertical_flip : 부울 임의 수직 반전
-
재조정 : 기본 달리 값이 데이터 (종래 변환의 다른 애플리케이션)에 곱해 없음 없음 0 또는 스케일링이 수행되지 있지 않은 경우에는, 계수를 스케일링.
-
preprocessing_function : 함수는 각각의 입력에인가된다. 이 기능은 확대하고 사진을 향상시키기 위해 데이터 후 실행됩니다. 이 함수는, 픽처 (랭크 NumPy와 어레이 (3))의 파라미터를 가져 와서 NumPy와 배열을 갖는 동일한 형상을 출력
-
data_format : 스트링의 채널 차원 위치 "channel_first"또는 "channel_last"대표 화상 중 하나. 이 파라미터는 Keras 1.x에서의 image_dim_ordering "channel_last"일본어 "TF"에 대응하는 일본어 "일"에 대응하는 "channel_first"이다. "channel_last"데이터 (128,128,3)로 구성되어야하는 상태가 128x128 RGB 화상은, 예를 들면, "channel_first"데이터가 (3128128)로 구성되어야한다. 이 매개 변수의 기본값은
~/.keras/keras.json
설정되지 않을 경우, 값 설정 "channel_last"
flow_from_directory(directory): 以文件夹路径为参数,生成经过数据提升/归一化后的数据,在一个无限循环中无限产生batch数据
- directory: 目标文件夹路径,对于每一个类,该文件夹都要包含一个子文件夹.子文件夹中任何JPG、PNG、BNP、PPM的图片都会被生成器使用.详情请查看此脚本
- target_size: 整数tuple,默认为(256, 256). 图像将被resize成该尺寸
- color_mode: 颜色模式,为"grayscale","rgb"之一,默认为"rgb".代表这些图片是否会被转换为单通道或三通道的图片.
- classes: 可选参数,为子文件夹的列表,如['dogs','cats']默认为None. 若未提供,则该类别列表将从
directory
下的子文件夹名称/结构自动推断。每一个子文件夹都会被认为是一个新的类。(类别的顺序将按照字母表顺序映射到标签值)。通过属性class_indices
可获得文件夹名与类的序号的对应字典。 - class_mode: "categorical", "binary", "sparse"或None之一. 默认为"categorical. 该参数决定了返回的标签数组的形式, "categorical"会返回2D的one-hot编码标签,"binary"返回1D的二值标签."sparse"返回1D的整数标签,如果为None则不返回任何标签, 生成器将仅仅生成batch数据, 这种情况在使用
model.predict_generator()
和model.evaluate_generator()
等函数时会用到. - batch_size: batch数据的大小,默认32
- shuffle: 是否打乱数据,默认为True
- seed: 可选参数,打乱数据和进行变换时的随机数种子
- save_to_dir: None或字符串,该参数能让你将提升后的图片保存起来,用以可视化
- save_prefix:字符串,保存提升后图片时使用的前缀, 仅当设置了
save_to_dir
时生效 - save_format:"png"或"jpeg"之一,指定保存图片的数据格式,默认"jpeg"
- flollow_links: 是否访问子文件夹中的软链
- 同时变换图像和mask示例
data_gen_args = dict(featurewise_center=True, featurewise_std_normalization=True, rotation_range=90., width_shift_range=0.1, height_shift_range=0.1, zoom_range=0.2) image_datagen = ImageDataGenerator(**data_gen_args) mask_datagen = ImageDataGenerator(**data_gen_args) # Provide the same seed and keyword arguments to the fit and flow methods seed = 1 image_datagen.fit(images, augment=True, seed=seed) mask_datagen.fit(masks, augment=True, seed=seed) image_generator = image_datagen.flow_from_directory( 'data/images', class_mode=None, seed=seed) mask_generator = mask_datagen.flow_from_directory( 'data/masks', class_mode=None, seed=seed) # combine generators into one which yields image and masks train_generator = zip(image_generator, mask_generator) model.fit_generator( train_generator, steps_per_epoch=2000, epochs=50)
参考链接;
https://keras-cn.readthedocs.io/en/latest/preprocessing/image/
train_datagen = ImageDataGenerator( rescale=1./255, shear_range=0.2, zoom_range=0.2, horizontal_flip=True) test_datagen = ImageDataGenerator(rescale=1./255) train_generator = train_datagen.flow_from_directory( 'data/train', target_size=(150, 150), batch_size=32, class_mode='binary') validation_generator = test_datagen.flow_from_directory( 'data/validation', target_size=(150, 150), batch_size=32, class_mode='binary') model.fit_generator( train_generator, steps_per_epoch=2000, epochs=50, validation_data=validation_generator, validation_steps=800)