Runnable 接口只有一个没有返回值的方法。
trait Runnable {
def run(): Unit
}
Callable与之类似,除了它有一个返回值
trait Callable[V] {
def call(): V
}
Scala 并发是建立在 Java 并发模型基础上的。
在 Sun JVM 上,对 IO 密集的任务,我们可以在一台机器运行成千上万个线程。
一个线程需要一个 Runnable。你必须调用线程的 start 方法来运行 Runnable。
scala> val hello = new Thread(new Runnable {
def run() {
println("hello world")
}
})
hello: java.lang.Thread = Thread[Thread-3,5,main]
scala> hello.start
hello world
当你看到一个类实现了 Runnable 接口,你就知道它的目的是运行在一个线程中。
这里有一个可以工作但有问题的代码片断。
import java.net.{Socket, ServerSocket}
import java.util.concurrent.{Executors, ExecutorService}
import java.util.Date
class NetworkService(port: Int, poolSize: Int) extends Runnable {
val serverSocket = new ServerSocket(port)
def run() {
while (true) {
// This will block until a connection comes in.
val socket = serverSocket.accept()
(new Handler(socket)).run()
}
}
}
class Handler(socket: Socket) extends Runnable {
def message = (Thread.currentThread.getName() + "\n").getBytes
def run() {
socket.getOutputStream.write(message)
socket.getOutputStream.close()
}
}
(new NetworkService(2020, 2)).run
每个请求都会回应当前线程的名称,所以结果始终是 main 。
这段代码的主要缺点是在同一时间,只有一个请求可以被相应!
你可以把每个请求放入一个线程中处理。只要简单改变
(new Handler(socket)).run()
为
(new Thread(new Handler(socket))).start()
但如果你想重用线程或者对线程的行为有其他策略呢?
随着 Java 5 的发布,它决定提供一个针对线程的更抽象的接口。
你可以通过 Executors 对象的静态方法得到一个 ExecutorService 对象。这些方法为你提供了可以通过各种政策配置的 ExecutorService ,如线程池。
下面改写我们之前的阻塞式网络服务器来允许并发请求。
import java.net.{Socket, ServerSocket}
import java.util.concurrent.{Executors, ExecutorService}
import java.util.Date
class NetworkService(port: Int, poolSize: Int) extends Runnable {
val serverSocket = new ServerSocket(port)
val pool: ExecutorService = Executors.newFixedThreadPool(poolSize)
def run() {
try {
while (true) {
// This will block until a connection comes in.
val socket = serverSocket.accept()
pool.execute(new Handler(socket))
}
} finally {
pool.shutdown()
}
}
}
class Handler(socket: Socket) extends Runnable {
def message = (Thread.currentThread.getName() + "\n").getBytes
def run() {
socket.getOutputStream.write(message)
socket.getOutputStream.close()
}
}
(new NetworkService(2020, 2)).run
这里有一个连接脚本展示了内部线程是如何重用的。
$ nc localhost 2020
pool-1-thread-1
$ nc localhost 2020
pool-1-thread-2
$ nc localhost 2020
pool-1-thread-1
$ nc localhost 2020
pool-1-thread-2
Future 代表异步计算。你可以把你的计算包装在 Future 中,当你需要计算结果的时候,你只需调用一个阻塞的 get() 方法就可以了。一个 Executor 返回一个 Future 。如果使用 Finagle RPC 系统,你可以使用 Future 实例持有可能尚未到达的结果。
一个 FutureTask 是一个 Runnable 实现,就是被设计为由 Executor 运行的
val future = new FutureTask[String](new Callable[String]() {
def call(): String = {
searcher.search(target);
}})
executor.execute(future)
现在我需要结果,所以阻塞直到其完成。
val blockingResult = future.get()
参考 Scala School 的 Finagle 介绍中大量使用了 Future,包括一些把它们结合起来的不错的方法。以及 Effective Scala 对 [Futures](http://twitter.github.com/effectivescala/#Twitter's standard libraries-Futures) 的意见。
class Person(var name: String) {
def set(changedName: String) {
name = changedName
}
}
这个程序在多线程环境中是不安全的。如果有两个线程有引用到同一个 Person 实例,并调用 set ,你不能预测两个调用结束后 name 的结果。
在 Java 内存模型中,允许每个处理器把值缓存在 L1 或 L2 缓存中,所以在不同处理器上运行的两个线程都可以有自己的数据视图。
让我们来讨论一些工具,来使线程保持一致的数据视图。
互斥锁(Mutex)提供所有权语义。当你进入一个互斥体,你拥有它。同步是 JVM 中使用互斥锁最常见的方式。在这个例子中,我们会同步 Person。
在 JVM 中,你可以同步任何不为 null 的实例。
class Person(var name: String) {
def set(changedName: String) {
this.synchronized {
name = changedName
}
}
}
随着 Java 5 内存模型的变化,volatile 和 synchronized 基本上是相同的,除了 volatile 允许空值。
synchronized 允许更细粒度的锁。 而 volatile 则对每次访问同步。
class Person(@volatile var name: String) {
def set(changedName: String) {
name = changedName
}
}
此外,在 Java 5 中还添加了一系列低级别的并发原语。 AtomicReference 类是其中之一
import java.util.concurrent.atomic.AtomicReference
class Person(val name: AtomicReference[String]) {
def set(changedName: String) {
name.set(changedName)
}
}
AtomicReference 是这两种选择中最昂贵的,因为你必须去通过方法调度(method dispatch)来访问值。
volatile 和 synchronized 是建立在 Java 的内置监视器基础上的。如果没有资源争用,监视器的成本很小。由于 synchronized 允许你进行更细粒度的控制权,从而会有更少的争夺,所以 synchronized 往往是最好的选择。
当你进入同步点,访问 volatile 引用,或去掉 AtomicReferences 引用时, Java 会强制处理器刷新其缓存线从而提供了一致的数据视图。
如果我错了,请大家指正。这是一个复杂的课题,我敢肯定要弄清楚这一点需要一个漫长的课堂讨论。
正如前面提到的 AtomicReference ,Java 5 带来了许多很棒的工具。
CountDownLatch 是一个简单的多线程互相通信的机制。
val doneSignal = new CountDownLatch(2)
doAsyncWork(1)
doAsyncWork(2)
doneSignal.await()
println("both workers finished!")
先不说别的,这是一个优秀的单元测试。比方说,你正在做一些异步工作,并要确保功能完成。你的函数只需要 倒数计数(countDown) 并在测试中 等待(await) 就可以了。
由于对 Int 和 Long 递增是一个经常用到的任务,所以增加了 AtomicInteger 和 AtomicLong 。
我可能不需要解释这是什么。
读写锁(ReadWriteLock) 使你拥有了读线程和写线程的锁控制。当写线程获取锁的时候读线程只能等待。
下面是一个简单的倒排索引,它不是线程安全的。我们的倒排索引按名字映射到一个给定的用户。
这里的代码天真地假设只有单个线程来访问。
注意使用了 mutable.HashMap 替代了默认的构造函数 this()
import scala.collection.mutable
case class User(name: String, id: Int)
class InvertedIndex(val userMap: mutable.Map[String, User]) {
def this() = this(new mutable.HashMap[String, User])
def tokenizeName(name: String): Seq[String] = {
name.split(" ").map(_.toLowerCase)
}
def add(term: String, user: User) {
userMap += term -> user
}
def add(user: User) {
tokenizeName(user.name).foreach { term =>
add(term, user)
}
}
}
这里没有写如何从索引中获取用户。稍后我们会补充。
在上面的倒排索引例子中,userMap 不能保证是线程安全的。多个客户端可以同时尝试添加项目,并有可能出现前面 Person 例子中的视图错误。
由于 userMap 不是线程安全的,那我们怎样保持在同一个时间只有一个线程能改变它呢?
你可能会考虑在做添加操作时锁定 userMap。
def add(user: User) {
userMap.synchronized {
tokenizeName(user.name).foreach { term =>
add(term, user)
}
}
}
不幸的是,这个粒度太粗了。一定要试图在互斥锁以外做尽可能多的耗时的工作。还记得我说过如果不存在资源争夺,锁开销就会很小吗。如果在锁代码块里面做的工作越少,争夺就会越少。
def add(user: User) {
// tokenizeName was measured to be the most expensive operation.
val tokens = tokenizeName(user.name)
tokens.foreach { term =>
userMap.synchronized {
add(term, user)
}
}
}
我们可以通过 SynchronizedMap 特质将同步混入一个可变的 HashMap。
我们可以扩展现有的 InvertedIndex,提供给用户一个简单的方式来构建同步索引。
import scala.collection.mutable.SynchronizedMap
class SynchronizedInvertedIndex(userMap: mutable.Map[String, User]) extends InvertedIndex(userMap) {
def this() = this(new mutable.HashMap[String, User] with SynchronizedMap[String, User])
}
如果你看一下其实现,你就会意识到,它只是在每个方法上加同步锁来保证其安全性,所以它很可能没有你希望的性能。
Java 有一个很好的线程安全的 ConcurrentHashMap。值得庆幸的是,我们可以通过 JavaConverters 获得不错的 Scala 语义。
事实上,我们可以通过扩展老的不安全的代码,来无缝地接入新的线程安全 InvertedIndex。
import java.util.concurrent.ConcurrentHashMap
import scala.collection.JavaConverters._
class ConcurrentInvertedIndex(userMap: collection.mutable.ConcurrentMap[String, User])
extends InvertedIndex(userMap) {
def this() = this(new ConcurrentHashMap[String, User] asScala)
}
trait UserMaker {
def makeUser(line: String) = line.split(",") match {
case Array(name, userid) => User(name, userid.trim().toInt)
}
}
class FileRecordProducer(path: String) extends UserMaker {
def run() {
Source.fromFile(path, "utf-8").getLines.foreach { line =>
index.add(makeUser(line))
}
}
}
对于文件中的每一行,我们可以调用 makeUser 然后 add 到 InvertedIndex中。如果我们使用并发 InvertedIndex,我们可以并行调用 add 因为 makeUser 没有副作用,所以我们的代码已经是线程安全的了。
我们不能并行读取文件,但我们可以并行构造用户并且把它添加到索引中。
异步计算的一个常见模式是把消费者和生产者分开,让他们只能通过队列(Queue) 沟通。让我们看看如何将这个模式应用在我们的搜索引擎索引中。
import java.util.concurrent.{BlockingQueue, LinkedBlockingQueue}
// Concrete producer
class Producer[T](path: String, queue: BlockingQueue[T]) extends Runnable {
def run() {
Source.fromFile(path, "utf-8").getLines.foreach { line =>
queue.put(line)
}
}
}
// Abstract consumer
abstract class Consumer[T](queue: BlockingQueue[T]) extends Runnable {
def run() {
while (true) {
val item = queue.take()
consume(item)
}
}
def consume(x: T)
}
val queue = new LinkedBlockingQueue[String]()
// One thread for the producer
val producer = new Producer[String]("users.txt", q)
new Thread(producer).start()
trait UserMaker {
def makeUser(line: String) = line.split(",") match {
case Array(name, userid) => User(name, userid.trim().toInt)
}
}
class IndexerConsumer(index: InvertedIndex, queue: BlockingQueue[String]) extends Consumer[String](queue) with UserMaker {
def consume(t: String) = index.add(makeUser(t))
}
// Let's pretend we have 8 cores on this machine.
val cores = 8
val pool = Executors.newFixedThreadPool(cores)
// Submit one consumer per core.
for (i <- i to cores) {
pool.submit(new IndexerConsumer[String](index, q))
}