The Walt Disney Company France est la filiale de la Walt Disney Company en France qui détient et gère les productions Disney pour le marché français. La société Disney a été créée aux États-Unis en 1923 par Walt Disney et dès 1930, elle met un pied en France.