---++++-----------------+--------++++--+++-----+-+++-------++++---------
---++++---------------------------+----+++-+--++-+++-+-----++----+++++++
---++++-----------------+---+********+++++++++++-++---------+++++++++---
---++----------------++*************************-+++++++----++**+++++---
----+++-------------********#**********##****************+-++***++++----
----+-------------+*****************######***#*****************+--------
--------------++***********************#######***************+----------
--------------**************#*******########*******************+----+---
--------------***********************#***#***********************-------
-------+------+*#******************+*********+*++**********#*****+------
-------+++++**#####**#********###*+***+**++**+*+**++****+**+***##+------
-------***##**#****************#*+******++****+*************++***++-----
+++----**#*********************#*+***********++*******************-----+
+++----*****####*****#********+**************+*##**#*****#*#******-----+
-++---+***#########****+******--***#***********##*+***#****#*##***----++
--+---+**#######********#****+-+-+**#*************+**#***##**##***++-+++
-------*########************+-:::+-**###***********##***#**###****++++++
-------**####***##*#*#**##*-+::::++----------+++-------+*###*****-----++
+++++--*######*******#*##*-+::++++*******+-+::::+*****++*#*****+++++--++
++++++-+################*-+::---++-++++++--+:::+-+++--++++***-++++++++++
--+++++++#####*--+*#####++:+-++*++-+---+*+-----++*+-**--+-+++-+-++++-+++
++-+++-++*###++++++-**+++-++++*+-:+++---+*+*+**+*--++++-*++++-+++-----++
++++++++++##*-++++-+-*#++:+-++*+-+++++--+**-+*+**-++++--**-++++------+++
++++-+++++*#*-+++----+-+++++-+*++++++--+*+--++*+*+-++---*++++-++++++--++
++++++-+++**#+-++--+:+--+++++--*++*--+**+--++++*+*+-*++*+++---++++++--++
+-++-+++++++*#-+++---++:++++++++--------+++++::*++----++-++-+-+++++---++
+-++++-++++++*#+-++++:+::+++++++++++:::::+++*+*---+::+-+++--+-+++++--+++
-+++-++--++++*##*+-+--+::::++++:::::::::::++-----++++++---+--+++++++-++-
------++-++++**#####---+:::::::::::::::::::::++::::++--++-++--++++++-+++
+++++++++++++++**###*---+:::::::::::+*=*=*=*=*=*=*::+++++--+--+++++--++-
+++++-++-++++++++*##*-+--+:::::::::::::*#######*+::+++-++--+-++++++----+
+++++++++++++*******+-++--++:::::::::::::*=*=*++::++++++++++++++++++-+++
-+--++++++++*+****##-++:++---++:::::::::::++++::+++++++--+-+++----+-++++
------+++--+**+*####-++::+++----++:::::::::::::::+*++++++-+-++++++++-+++
+++-++++--++*+*++*#*+++:::::++-----++::::::::::+-**++++++++-++++++---+++
++++++++++++*+***+++--+:::::::++--------++++++-+******++++++++++++++++++
+----++++++**+*#****+++-::::::::+++---------**####*******+++++++++++++++
-----------*+**#******+++-++:::::++++-------*####**##**++++-------------
----------+*+***#***##****++--+:::::++++++-+####**********++------------
-------+*****#****#**####*****+-:::::::++--*###**********#**+-----------
----+*********##*******###*****++::::::+---+*###********#**+*-----------
+***********######******#**#**++:::::::++---+*#********#****++++++++++++
*********##****#####**#***#***+-::::::::+++--+*##**##**##******+++++++++
**###******##****###*##***##*++-++:::::::++---+*##*#**#***++***+++++++++
######*******###***##***#*****+---------------+**####*******++****+++++-
          
Alpha: 5.398 Beta: 9.931 Loss: 12.211 Training ...

from torch import nn, optim
model = nn.Sequential(nn.Linear(2, 1, False), nn.ReLU())
loss_function = nn.MSELoss()
optimizer = optim.Adam(model.parameters(), 0.01)
training_data = (x_train, y_train)
train(model, loss_function, optimizer, training_data)