package uk.bl.wa.apache.solr.hadoop; ///** // * // */ //package org.apache.solr.hadoop; // //import java.io.IOException; // //import org.apache.hadoop.fs.Path; //import org.apache.hadoop.io.Text; //import org.apache.hadoop.mapreduce.InputSplit; //import org.apache.hadoop.mapreduce.JobContext; //import org.apache.hadoop.mapreduce.RecordReader; //import org.apache.hadoop.mapreduce.TaskAttemptContext; //import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; // //import uk.bl.wa.hadoop.WritableArchiveRecord; // ///** // * @author Andrew Jackson <Andrew.Jackson@bl.uk> // * // */ //public class WebArchiveFileInputFormat extends // FileInputFormat<Text, WritableArchiveRecord> { // // @Override // public RecordReader<Text, WritableArchiveRecord> createRecordReader( // InputSplit split, TaskAttemptContext context) throws IOException, // InterruptedException { // WebArchiveFileRecordReader rr = new WebArchiveFileRecordReader(); // rr.initialize(split, context); // return rr; // // } // // /* // * (non-Javadoc) // * // * @see // * org.apache.hadoop.mapreduce.lib.input.FileInputFormat#isSplitable(org // * .apache.hadoop.mapreduce.JobContext, org.apache.hadoop.fs.Path) // */ // @Override // protected boolean isSplitable(JobContext context, Path filename) { // return false; // } // // }