sbt下载官网
选择对应的版本和安装程序
Download | sbt (scala-sbt.org)


安装
解压
将sbt-1.9.0.tgz上传到xshell,并解压

解压:
tar -zxvf sbt-1.9.0.tgz 

 配置
1、在/home/hadoop/sbt中创建sbt脚本
/home/hadoop/sbt 注意要改成自己的地址
cd sbt
vim ./sbt 
 
  在脚本中添加如下内容:
记住里面的路径,要改成自己的路径
#!/bin/bash
SBT_OPTS="-Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M"
java $SBT_OPTS -jar /home/hadoop/sbt/bin/sbt-launch.jar "$@"
 
 2、为sbt脚本文件增加可执行权限
一定要在对应的目录下完成
找到对应的文件夹目录
chmod u+x ./sbt 
 3、运行如下命令,检查sbt是否可用(查看sbt的版本信息)
./sbt sbtVersion 
 
 sbt的运用
一定要注意对应的目录和路径,不能错
1、创建存放代码的目录
mkdir -p sparkapp/src/main/scala/ 
 2、编写代码
vim sparkapp/src/main/scala/test1.scala 
 
对应目录

在test1.scala文件中增加如下内容
object HelloWorld{
 
        def main(args:Array[String]){
 
                println("hello world!");
 
        }
 
} 
3、进入sparkapp目录编写sbt程序
cd sparkapp/ 
vim simple.sbt 
 在simple.sbt中添加如下内容:
name := "Simple Project"    
version := "1.9.0"   
scalaVersion := "2.12.10"
libraryDependencies += "org.apache.spark" %% "spark-core" % "3.5.1"  
name := "Simple Project"    (项目名称)
version := "1.6.1"             (自己的sbt版本号)
scalaVersion := "2.12.10"        (自动scala版本号)
libraryDependencies += "org.apache.spark" %% "spark-core" % "3.1.1"  (spark的版本号)
//如何要连接mysql的话
libraryDependencies += "mysql" % "mysql-connector-java" % "8.0.26" // 使用适合你MySQL版本的驱动 

4、打包scala程序(必须在sbt/sparkapp这个路径下操作)
cd sbt/sparkapp/
/home/hadoop/sbt/sbt package 

  (打包生成的jar包在sbt/sparkapp/target/scala-2.12/simple-project_2.12-1.6.1.jar) 不同的路径生成的位置也不一样

5、通过spark-submit运行程序
/usr/local/spark-3.5.1/bin/spark-submit --class "HelloWorld" ./target/scala-2.12/simple-project_2.12-1.9.0.jar 
/usr/local/spark-3.5.1/bin/spark-submit //spark-submit的对应位置
--class "HelloWorld" //引用类的名称
./target/scala-2.12/simple-project_2.12-1.9.0.jar //刚才打包的对应的位置
运行结果

 复杂代码的实现
1、创建一个代码文件text2.scala
cd sbt/sparkapp/src/main/scala/
vim text2.scala 
  在文件中增加如下内容:
这段代码,中处理了employ.txt文件,请确定对应路径下你有这个文件
文件内容为
1,Ella,36
2,Bob,29
3,Jack,29
import org.apache.spark.sql.{SparkSession, Row}  
import org.apache.spark.sql.types._  
  
object RDDToDataFrameExample {  
  def main(args: Array[String]): Unit = {  
    // 创建SparkSession  
    val spark = SparkSession.builder()  
      .appName("RDD to DataFrame Example")  
      .master("local[*]") // 使用本地模式,如果连接到集群请更改这里  
      .getOrCreate()  
  
    import spark.implicits._  
  
    // 指定employee.txt文件的位置  
    val inputFilePath = "file:///home/hadoop/employee.txt"  
  
    // 从文本文件读取数据创建RDD  
    val rdd = spark.sparkContext.textFile(inputFilePath)  
  
    // 定义DataFrame的schema  
    val schema = StructType(Array(  
      StructField("id", IntegerType, nullable = false),  
      StructField("name", StringType, nullable = false),  
      StructField("age", IntegerType, nullable = false)  
    ))  
  
    // 将RDD转换为DataFrame  
    val dataFrame = spark.createDataFrame(rdd.map { line =>  
      val parts = line.split(",")  
      Row(parts(0).toInt, parts(1), parts(2).toInt)  
    }, schema)  
  
    // 显示DataFrame内容  
    dataFrame.show(false)  
  
    // 按照指定格式打印所有数据  
    dataFrame.collect().foreach { row =>  
      println(s"id:${row.getAs[Int]("id")},name:${row.getAs[String]("name")},age:${row.getAs[Int]("age")}")  
    }  
  
    // 停止SparkSession  
    spark.stop()  
  }  
}
 
 2、在sbt中编译打包(必须在cd sbt/sparkapp目录下)
cd
cd sbt/sparkapp
/home/hadoop/sbt/sbt package 

 3、使用spark-submit命令提交运行(必须在cd sbt/sparkapp目录下)
/usr/local/spark-3.5.1/bin/spark-submit --class "RDDToDataFrameExample" ./target/scala-2.12/simple-project_2.12-1.9.0.jar 
4、运行后查看结果


如果你学到这里,恭喜,你已经学习sbt的安装和使用了










