Este requisito pode ser atendido adicionando ruído suficiente às previsões y^ correlacioná-los de valores ortogonais v. Idealmente, sey^ já está correlacionado de v, nenhum ruído seria adicionado a y^, portanto y^ estaria maximamente correlacionado com y.
Matematicamente, queremos criar y^′=y^+ ϵ de ε ~ N( 0 ,σϵ), satisfazer ry^′v=σy^′vσy^′σv< δ
para limiar arbitrário δ. Agora, vamos expandir essa desigualdade para encontrar um limite inferior para o padrão de ruídoϵ, ie σϵ.
σ2y^′σy^′vry^′v=σ2y^+σ2ϵ,= E [ (y^+ ϵ -μy^-μϵ= 0) ( v -μv) ]= E [ (y^-μy^) ( v -μv) ] +E [ϵ(v-μv) ]= 0=σy^v,=σy^′vσy^′σv=σy^vσvσ2y^+σ2ϵ------√< δ⇒σy^(ry^vδ)2- 1----------√<σϵ
Como todas as variáveis no lado esquerdo da desigualdade podem ser calculadas, podemos amostrar ruídos de N( 0 ,σϵ) e adicione-os a y^ para satisfazer a desigualdade original.
Aqui está um código que faz exatamente a mesma coisa:
import numpy as np
import pandas as pd
from sklearn.datasets import make_regression
from xgboost import XGBRegressor
ORTHO_VAR = 'ortho_var'
IND_VARNM = 'indep_var'
TARGET = 'target'
CORRECTED_VARNM = 'indep_var_fixed'
seed = 245
# Create regression dataset with two correlated targets
X, y = make_regression(n_samples=10000, n_features=20, random_state=seed, n_targets=2)
indep_vars = ['var{}'.format(i) for i in range(X.shape[1])]
# Pull into dataframe
df = pd.DataFrame(X, columns=indep_vars)
df[TARGET] = y[:, 0]
df[ORTHO_VAR] = y[:, 1]
# Fit a model to predict TARGET
xgb = XGBRegressor(n_estimators=10)
xgb.fit(df[indep_vars], df[TARGET])
df['yhat'] = xgb.predict(df[indep_vars])
delta = 0.01
# std of noise required to be added to y_hat to bring the correlation
# of y_hat with ORTHO_VAR below delta
std_y_hat = np.std(df['yhat'], ddof=1)
corr_y_hat_ortho_var = np.corrcoef(df['yhat'], df[ORTHO_VAR])[1, 0]
corr_y_hat_target = np.corrcoef(df['yhat'], df[TARGET])[1, 0]
std_noise_lower_bound = std_y_hat * np.sqrt((corr_y_hat_ortho_var / delta)**2 - 1.0)
std_noise = max(0, std_noise_lower_bound) + 1
print('delta: ', delta)
print('std_y_hat: ', std_y_hat)
print('corr_y_hat_target: ', corr_y_hat_target)
print('corr_y_hat_ortho_var: ', corr_y_hat_ortho_var)
print('std_noise_lower_bound: ', std_noise_lower_bound)
print('std_noise: ', std_noise)
# add noise
np.random.seed(seed)
noises = np.random.normal(0, std_noise, len(df['yhat']))
noises -= np.mean(noises) # remove slight deviations from zero mean
print('noise_samples: mean:', np.mean(noises), ', std: ', np.std(noises))
df['yhat'] = df['yhat'] + noises
# measure new correlation
corr_y_hat_ortho_var = np.corrcoef(df['yhat'], df[ORTHO_VAR])[1, 0]
corr_y_hat_target = np.corrcoef(df['yhat'], df[TARGET])[1, 0]
print('new corr_y_hat_target: ', corr_y_hat_target)
print('new corr_y_hat_ortho_var: ', corr_y_hat_ortho_var)
# Correlation should be low or preferably zero
assert corr_y_hat_ortho_var < delta, corr_y_hat_ortho_var
assert -delta < corr_y_hat_ortho_var, corr_y_hat_ortho_var
quais saídas:
delta: 0.01
std_y_hat: 69.48568725585938
corr_y_hat_target: 0.8207672834857673
corr_y_hat_ortho_var: 0.7663936356880843
std_noise_lower_bound: 5324.885500165032
std_noise: 5325.885500165032
noise_samples: mean: 1.1059455573558807e-13 , std: 5373.914830034988
new corr_y_hat_target: -0.004125016071865934
new corr_y_hat_ortho_var: -0.000541131379457552
Você pode experimentar com outros delta
s. Ao comparar std_y_hat
com std_noise_lower_bound
, você pode ver que um ruído enorme deve ser adicionado aoy^ para correlacioná-lo de v abaixo 0,01, que tolera drasticamente y^ de y também.
Nota: Assertion
pode falhar para limites muito pequenosδ devido à contagem insuficiente de amostras.