Задача со звёздочкой, по-этому всё серьёзно. Вооружаемся: python, Jupyter notebook, машинное обучение: Открываем ноутбук, пишем... import pandas as pd import numpy as np from sklearn.linear_model import LinearRegression from sklearn.tree import DecisionTreeRegressor from sklearn.ensemble import RandomForestRegressor from sklearn.neighbors import KNeighborsRegressor from sklearn.svm import SVR data = {'Feature1': [5, 9, 7], 'Target': [4, 6, np.nan], 'Feature2': [1, 3, 2]}
df = pd.DataFrame(data) df.info() print("Исходный датафрейм:")
display(df) Т.к. данных мало :) , то обойдёмся без тестовых данных. X = df[['Feature1', 'Feature2']] # Фичи
y = df['Target'] # Таргет
# Убираем последнюю строку из данных для обучения
X_train = X.iloc[:-1] # Все строки, кроме последней
y_train = y.iloc[:-1] # Все строки, кроме последней
X_test¹ = X.iloc[[-1]] # Последняя строка (предсказание) ¹ X_test – это не тестовая выборка, просто по традиции называется text, и уже боевая часть для предсказания. И