Cada árbol de decisión tiene una varianza alta, pero cuando los combinamos todos juntos en paralelo, la varianza resultante es baja ya que cada árbol de decisión se entrena perfectamente en esos datos de muestra en particular y, por lo tanto, la salida no depende de un árbol de decisión sino de árboles de decisión múltiple. En el caso de un problema de clasificación, la salida final se obtiene utilizando el clasificador de votación por mayoría. En el caso de un problema de regresión, la salida final es la media de todas las salidas. Esta parte se llama Agregación .
python
# Importing the libraries import numpy as np import matplotlib.pyplot as plt import pandas as pd
python
data = pd.read_csv('Salaries.csv') print(data)
python
# Fitting Random Forest Regression to the dataset # import the regressor from sklearn.ensemble import RandomForestRegressor # create regressor object regressor = RandomForestRegressor(n_estimators = 100, random_state = 0) # fit the regressor with x and y data regressor.fit(x, y)
python
Y_pred = regressor.predict(np.array([6.5]).reshape(1, 1)) # test the output by changing values
python
# Visualising the Random Forest Regression results # arrange for creating a range of values # from min value of x to max # value of x with a difference of 0.01 # between two consecutive values X_grid = np.arrange(min(x), max(x), 0.01) # reshape for reshaping the data into a len(X_grid)*1 array, # i.e. to make a column out of the X_grid value X_grid = X_grid.reshape((len(X_grid), 1)) # Scatter plot for original data plt.scatter(x, y, color = 'blue') # plot predicted data plt.plot(X_grid, regressor.predict(X_grid), color = 'green') plt.title('Random Forest Regression') plt.xlabel('Position level') plt.ylabel('Salary') plt.show()
Publicación traducida automáticamente
Artículo escrito por Avik_Dutta y traducido por Barcelona Geeks. The original can be accessed here. Licence: CCBY-SA